JP2023079140A - Information processing system, information processing method and information processing program - Google Patents

Information processing system, information processing method and information processing program Download PDF

Info

Publication number
JP2023079140A
JP2023079140A JP2022047078A JP2022047078A JP2023079140A JP 2023079140 A JP2023079140 A JP 2023079140A JP 2022047078 A JP2022047078 A JP 2022047078A JP 2022047078 A JP2022047078 A JP 2022047078A JP 2023079140 A JP2023079140 A JP 2023079140A
Authority
JP
Japan
Prior art keywords
learning
area
data
input
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022047078A
Other languages
Japanese (ja)
Inventor
隼人 久米村
Hayato Kumemura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Datafluct
Datafluct Inc
Original Assignee
Datafluct
Datafluct Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datafluct, Datafluct Inc filed Critical Datafluct
Publication of JP2023079140A publication Critical patent/JP2023079140A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

To provide an information processing system that sets learning conditions according to input data when performing prediction using a learning model obtained by inputting the input data into a learning device.SOLUTION: In an information processing system 1, an information processing device 2 comprises a control unit. The control unit includes executing a step of generating a learning picture including an input area enabling data information on input data to be presented, a learning area enabling learning conditions for a learning model obtained using the input data to be set, and a first external connector associating the input area with the learning area.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing system, an information processing method, and an information processing program.

従来技術として、学習器に関する下記の文献が挙げられる。 As prior art, the following documents regarding learning devices can be cited.

特開2021-177428号公報Japanese Patent Application Laid-Open No. 2021-177428

学習器に入力データを入力することで得られる学習モデルを用いた予測を行う際に、入力データに応じて学習条件を設定する必要がある。このような学習条件の設定には、データサイエンスに関する知見が比較的高い水準で求められることがある。 When performing prediction using a learning model obtained by inputting input data into a learner, it is necessary to set learning conditions according to the input data. A relatively high level of knowledge about data science may be required to set such learning conditions.

(1)本発明の一態様によれば、情報処理システムが提供される。この情報処理システムは、制御部を備える。制御部は、次の各ステップを実行するように構成される。第1の生成ステップでは、入力データに関するデータ情報を提示可能な入力領域と、入力データを用いた学習モデルの学習条件を設定可能な学習領域と、入力領域と学習領域とを対応付ける第1の外部コネクタと、を含む学習画面を生成する。 (1) According to one aspect of the present invention, an information processing system is provided. This information processing system includes a control unit. The controller is configured to perform the following steps. In the first generating step, an input area capable of presenting data information about the input data, a learning area capable of setting learning conditions for a learning model using the input data, and a first external device that associates the input area with the learning area. Generate a learning screen that includes a connector and

情報処理システム1を表す構成図である。1 is a configuration diagram showing an information processing system 1; FIG. 情報処理装置2のハードウェア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the information processing device 2; FIG. ユーザ端末3のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of the user terminal 3; FIG. 制御部23が備える機能部の一例を示す図である。3 is a diagram showing an example of functional units included in a control unit 23; FIG. 情報処理システム1において実行される情報処理の流れの一例を示すアクティビティ図である。3 is an activity diagram showing an example of the flow of information processing executed in the information processing system 1; FIG. 表示部34に表示される学習画面13の一例を示す図である。3 is a diagram showing an example of a learning screen 13 displayed on a display unit 34; FIG. 表示部34に表示される運用画面14の一例を示す図である。3 is a diagram showing an example of an operation screen 14 displayed on a display unit 34; FIG. 運用画面14の変形例を示す図である。FIG. 11 is a diagram showing a modified example of the operation screen 14;

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。特に、本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表されるか、信号値の物理的な数値によって表されるか、又は量子的な重ね合わせによって表されるかによらず、広義の回路上で通信・演算が実行されうる。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments shown below can be combined with each other. In particular, in this specification, the term "unit" can include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be specifically realized by these hardware resources. . In addition, various information is handled in this embodiment, and this information is represented by the height of the signal value as a binary bit aggregate composed of 0 or 1, or by the physical numerical value of the signal value. Communications and operations can be performed on broad circuits, whether represented by a quantum superposition or by a quantum superposition.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 A circuit in a broad sense is a circuit implemented by appropriately combining at least circuits, circuits, processors, memories, and the like. Application Specific Integrated Circuits (ASICs); Programmable Logic Devices (e.g., Simple Programmable Logic Devices (SPLDs); Complex Programmable Logic Devices (CPLDs); and field It includes a programmable gate array (Field Programmable Gate Array: FPGA).

また、実施形態中に登場するソフトウェアを実現するためのプログラムは、サーバからダウンロード可能な態様で実施してもよいし、クラウドコンピュータ上でプログラムの実行がなされてもよいし、不揮発性又は揮発性の非一時的な記憶媒体に記憶させて頒布されてもよい。 In addition, a program for realizing software that appears in the embodiments may be implemented in a form that can be downloaded from a server, the program may be executed on a cloud computer, and may be non-volatile or volatile. may be stored and distributed in a non-temporary storage medium.

1.ハードウェア構成
本節では、ハードウェア構成について説明する。
1. Hardware configuration This section describes the hardware configuration.

<情報処理システム1>
図1は、情報処理システム1を表す構成図である。情報処理システム1は、情報処理装置2と、ユーザ端末3と、データベースDB1と、を備える。情報処理装置2と、ユーザ端末3と、データベースDB1と、は、電気通信回線を通じて通信可能に構成されている。一実施形態において、情報処理システム1とは、1つ又はそれ以上の装置又は構成要素からなるものである。仮に例えば、情報処理装置2のみからなる場合であれば、情報処理システム1は、情報処理装置2となりうる。以下、これらの構成要素について説明する。
<Information processing system 1>
FIG. 1 is a configuration diagram showing an information processing system 1. As shown in FIG. The information processing system 1 includes an information processing device 2, a user terminal 3, and a database DB1. The information processing device 2, the user terminal 3, and the database DB1 are configured to be able to communicate with each other through an electric communication line. In one embodiment, information handling system 1 is comprised of one or more devices or components. If, for example, the information processing system 1 consists only of the information processing device 2 , the information processing system 1 can be the information processing device 2 . These constituent elements are described below.

<情報処理装置2>
図2は、情報処理装置2のハードウェア構成を示すブロック図である。情報処理装置2は、通信部21と、記憶部22と、制御部23とを備え、これらの構成要素が情報処理装置2の内部において通信バス20を介して電気的に接続されている。各構成要素についてさらに説明する。
<Information processing device 2>
FIG. 2 is a block diagram showing the hardware configuration of the information processing device 2. As shown in FIG. The information processing device 2 includes a communication section 21 , a storage section 22 and a control section 23 , and these components are electrically connected via a communication bus 20 inside the information processing device 2 . Each component will be further described.

通信部21は、USB、IEEE1394、Thunderbolt(登録商標)、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、3G/LTE/5G等のモバイル通信、BLUETOOTH(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。すなわち、情報処理装置2は、通信部21及びネットワークを介して、外部から種々の情報を通信してもよい。 The communication unit 21 is preferably a wired communication means such as USB, IEEE1394, Thunderbolt (registered trademark), wired LAN network communication, etc., but wireless LAN network communication, mobile communication such as 3G/LTE/5G, BLUETOOTH (registered trademark), etc. Communication and the like may be included as desired. That is, it is more preferable to implement as a set of these communication means. That is, the information processing device 2 may communicate various information from the outside via the communication unit 21 and the network.

記憶部22は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部23によって実行される情報処理装置2に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。記憶部22は、制御部23によって実行される情報処理装置2に係る種々のプログラムや変数等を記憶している。 The storage unit 22 stores various information defined by the above description. For example, it can be used as a storage device such as a solid state drive (SSD) for storing various programs related to the information processing device 2 executed by the control unit 23, or as a temporary storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that stores information (arguments, arrays, etc.) required for the . The storage unit 22 stores various programs, variables, etc. related to the information processing device 2 executed by the control unit 23 .

制御部23は、情報処理装置2に関連する全体動作の処理・制御を行う。制御部23は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部23は、記憶部22に記憶された所定のプログラムを読み出すことによって、情報処理装置2に係る種々の機能を実現する。すなわち、記憶部22に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部23によって具体的に実現されることで、制御部23に含まれる各機能部として実行されうる。これらについては、次節においてさらに詳述する。なお、制御部23は単一であることに限定されず、機能ごとに複数の制御部23を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 23 processes and controls overall operations related to the information processing device 2 . The control unit 23 is, for example, a central processing unit (CPU) (not shown). The control unit 23 realizes various functions related to the information processing device 2 by reading a predetermined program stored in the storage unit 22 . That is, information processing by software stored in the storage unit 22 can be specifically realized by the control unit 23 which is an example of hardware, and can be executed as each functional unit included in the control unit 23 . These are further detailed in the next section. Note that the control unit 23 is not limited to a single unit, and may be implemented to have a plurality of control units 23 for each function. A combination thereof may also be used.

<ユーザ端末3>
図3は、ユーザ端末3のハードウェア構成を示すブロック図である。ユーザ端末3は、通信部31と、記憶部32と、制御部33と、表示部34と、入力部35とを備え、これらの構成要素がユーザ端末3の内部において通信バス30を介して電気的に接続されている。通信部31、記憶部32及び制御部33の説明は、情報処理装置2における各部の説明と同様のため省略する。
<User terminal 3>
FIG. 3 is a block diagram showing the hardware configuration of the user terminal 3. As shown in FIG. The user terminal 3 includes a communication section 31 , a storage section 32 , a control section 33 , a display section 34 and an input section 35 . properly connected. Descriptions of the communication unit 31, the storage unit 32, and the control unit 33 are omitted because they are similar to the description of each unit in the information processing apparatus 2. FIG.

表示部34は、ユーザ端末3筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部34は、ユーザが操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、ユーザ端末3の種類に応じて使い分けて実施することが好ましい。 The display unit 34 may be included in the housing of the user terminal 3, or may be externally attached. The display unit 34 displays a screen of a graphical user interface (GUI) that can be operated by the user. For example, it is preferable to use a display device such as a CRT display, a liquid crystal display, an organic EL display, and a plasma display according to the type of the user terminal 3 .

入力部35は、ユーザ端末3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部35は、表示部34と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部35がユーザによってなされた操作入力を受け付ける。当該入力が命令信号として、通信バス30を介して制御部33に転送され、制御部33が必要に応じて所定の制御や演算を実行しうる。 The input unit 35 may be included in the housing of the user terminal 3 or may be externally attached. For example, the input unit 35 may be integrated with the display unit 34 and implemented as a touch panel. With a touch panel, the user can input a tap operation, a swipe operation, or the like. Of course, a switch button, a mouse, a QWERTY keyboard, or the like may be employed instead of the touch panel. That is, the input unit 35 receives an operation input made by the user. The input is transferred as a command signal to the control unit 33 via the communication bus 30, and the control unit 33 can execute predetermined control and calculation as necessary.

<データベースDB1>
データベースDB1は、外部データD0を記憶する。外部データD0は、例えば公衆がアクセス可能なデータであっても、特定のユーザのみがアクセス可能なデータであってもよい。また、外部データD0は、本情報処理システム1を使用するユーザのみがアクセス可能なデータであってもよい。データベースDB1は、単一の記憶デバイスにより実現されていても、複数の記憶デバイスにより実現されていてもよい。外部データD0が表す内容は、例えば衛生観測結果、気候観測結果、統計資料など、任意である。
<Database DB1>
Database DB1 stores external data D0. The external data D0 may be, for example, data accessible to the public or data accessible only to specific users. Also, the external data D0 may be data that can be accessed only by the user using the information processing system 1 . The database DB1 may be realized by a single storage device or may be realized by a plurality of storage devices. The contents represented by the external data D0 are arbitrary, such as hygiene observation results, climate observation results, statistical data, and the like.

2.機能構成
図4は、制御部23が備える機能部の一例を示す図である。図4に示すように、制御部23は、受付部231と、変換処理部232と、生成部233と、を備える。
2. Functional Configuration FIG. 4 is a diagram showing an example of functional units included in the control unit 23 . As shown in FIG. 4 , the control unit 23 includes a reception unit 231 , a conversion processing unit 232 and a generation unit 233 .

<受付部231>
受付部231は、外部からの情報や指令の入力を受け付ける。当該入力は、ユーザによる入力であっても、ユーザ以外の任意のデバイスによる入力であってもよい。例えば、受付部231は、入力データDの入力や、ユーザ端末3に対する操作に応じた指令を受け付ける。本実施形態では、受付部231が受け付ける入力データDを、第1の入力データD1という。第1の入力データD1は、情報処理装置2に入力されるデータともいえる。
<Reception unit 231>
The reception unit 231 receives input of information and commands from the outside. The input may be input by the user or input by any device other than the user. For example, the receiving unit 231 receives the input of the input data D and the command corresponding to the operation on the user terminal 3 . In this embodiment, the input data D received by the receiving unit 231 is referred to as first input data D1. The first input data D<b>1 can also be said to be data input to the information processing device 2 .

<変換処理部232>
変換処理部232は、第1の入力データD1に対して行う変換処理を行うことで、第2の入力データD2を生成する。第2の入力データD2は、第1の入力データD1に対して変換処理が行われた入力データDともいえる。
<Conversion processing unit 232>
The conversion processing unit 232 generates second input data D2 by performing conversion processing on the first input data D1. The second input data D2 can also be said to be the input data D obtained by converting the first input data D1.

<生成部233>
生成部233は、表示部34に表示させる画面を生成する。
<Generating unit 233>
The generation unit 233 generates a screen to be displayed on the display unit 34 .

3.情報処理の詳細
本節では、前述した情報処理システム1において実行される情報処理について説明する。なお、当該情報処理は、アクティビティ図に図示されない、任意の例外処理を含みうる。例外処理は、当該情報処理の中断や、各処理の省略を含む。当該情報処理にて行われる選択又は入力は、ユーザによる操作に基づくものでも、ユーザの操作に依らず自動で行われるものでもよい。
3. Details of Information Processing In this section, information processing executed in the information processing system 1 described above will be described. Note that the information processing may include any exception handling not shown in the activity diagram. Exception processing includes interruption of the information processing and omission of each process. The selection or input performed in the information processing may be based on the user's operation, or may be automatically performed without depending on the user's operation.

[アクティビティA001]
図5は、情報処理システム1において実行される情報処理の流れの一例を示すアクティビティ図である。図5に示すように、アクティビティA001にて、受付部231は、第1の入力データD1の入力を受け付ける。本実施形態では、受付部231は、ユーザによる第1の入力データD1の入力を受付可能に構成されている。なお、入力データD1の入力は、ユーザによるものに限られない。例えば、入力データD1の入力は、制御部23と通信可能に構成された任意の部材、例えば、制御部33によって行われてもよい。
[Activity A001]
FIG. 5 is an activity diagram showing an example of the flow of information processing executed in the information processing system 1. As shown in FIG. As shown in FIG. 5, at activity A001, the receiving unit 231 receives input of first input data D1. In this embodiment, the reception unit 231 is configured to be able to receive input of the first input data D1 by the user. The input of the input data D1 is not limited to that by the user. For example, the input of the input data D1 may be performed by any member configured to be able to communicate with the control unit 23, for example, the control unit 33.

第1の入力データD1は、1又は複数の説明変数x1に対応するデータを含む。第1の入力データD1は、少なくともユーザが保有する保有データを含む。なお、第1の入力データD1は、ユーザ以外が保有するデータ、例えばデータベースDB1に記憶されたデータなど、を含んでもよい。第1の入力データD1は、少なくとも構造化データを含む。構造化データは、予め定められた構造となるように標準化されたデータである。なお、第1の入力データD1は、構造化データ以外のデータ、例えば非構造化データ、又は半構造化データを含んでもよい。非構造化データは、構造化データのように標準化された構造を持たない任意の形式のデータである。半構造化データは、非構造化データと、当該非構造化データを識別可能なタグと、の組み合わせからなる。半構造化データの形式は、例えば、グラフ型、キーバリュー型、ドキュメント型、カラム型などである。 The first input data D1 includes data corresponding to one or more explanatory variables x1. The first input data D1 includes at least held data held by the user. Note that the first input data D1 may include data held by a person other than the user, such as data stored in the database DB1. The first input data D1 includes at least structured data. Structured data is data standardized to have a predetermined structure. Note that the first input data D1 may include data other than structured data, such as unstructured data or semi-structured data. Unstructured data is any form of data that does not have a standardized structure like structured data. Semi-structured data consists of a combination of unstructured data and tags that can identify the unstructured data. Formats of semi-structured data include, for example, graph type, key-value type, document type, and column type.

[アクティビティA002]
次に処理がアクティビティA002に進み、変換処理部232は、受け付けた第1の入力データD1に対して変換処理を行う。これにより、変換処理部232は、第1の入力データD1から第2の入力データD2を生成する。
[Activity A002]
Next, the process proceeds to activity A002, and the conversion processing unit 232 performs conversion processing on the received first input data D1. Thereby, the conversion processing unit 232 generates the second input data D2 from the first input data D1.

変換処理とは、受付部231に入力された第1の入力データD1を、特定された学習器MLに入力可能な態様である第2の入力データD2に変換する処理である。変換処理は、第1の入力データD1に含まれるデータ点の削除と、第1の入力データD1へのデータ点の追加と、のうちの少なくとも1つを含む。具体的には、変換処理は、第1の入力データD1の一部の削除、欠損値の補完、外れ値の削除などの処理を含みうる。変換処理は、第1の入力データD1の規格化など、任意の処理を含んでもよい。変換処理は、データ整形ともいわれる。変換処理は、第1の入力データD1に含まれる複数の説明変数x1の結合処理、分離処理、補正などを含んでもよい。例えば、変換処理は、第1の入力データD1が時系列を表す年、月、及び日をそれぞれ異なる説明変数x1として有する場合に、これらの複数の説明変数x1を1つの入力に結合する処理を含みうる。 The conversion process is a process of converting the first input data D1 input to the reception unit 231 into the second input data D2 in a form that can be input to the specified learning device ML. The conversion process includes at least one of deleting data points included in the first input data D1 and adding data points to the first input data D1. Specifically, the conversion processing can include processing such as deletion of part of the first input data D1, complementation of missing values, deletion of outliers, and the like. The conversion processing may include arbitrary processing such as normalization of the first input data D1. The conversion process is also called data shaping. The conversion process may include a combination process, a separation process, a correction, and the like of a plurality of explanatory variables x1 included in the first input data D1. For example, when the first input data D1 has year, month, and day representing time series as different explanatory variables x1, the conversion process combines these multiple explanatory variables x1 into one input. can contain

また、変換処理は、複数の受付部231にて複数の第1の入力データD1を受け付けた場合、これらの第1の入力データD1の結合処理を行ってもよい。別例として、変換処理は、説明変数x1の追加処理、特徴量の追加などを含んでもよい。例えば、制御部23は、第1の入力データD1に応じてデータベースDB1から任意の外部データD0を取得し、当該外部データD0を第1の入力データD1に追加してもよい。制御部23は、追加された外部データD0に基づき、特徴量の追加を行ってもよい。変換処理は、第1の入力データD1の内容に基づいて、制御部23によって自動で実行可能な処理を含む。なお、変換処理は、ユーザによる指定に基づいて実行可能な処理を含んでもよい。また、本実施形態では、変換処理は、第1の入力データD1を所定の変換条件と比較することで特定される自動変換処理を含む。変換条件とは、例えば第1の入力データD1の容量、第1の入力データD1の統計情報の分散値が閾値未満か否か、第1の入力データD1の統計情報に基づく外れ値の有無などである。変換条件は、変換処理が行われる必要性を示唆するものでもある。 Further, in the conversion process, when a plurality of first input data D1 are received by a plurality of receiving units 231, the combining process of these first input data D1 may be performed. As another example, the conversion processing may include addition processing of explanatory variable x1, addition of feature amount, and the like. For example, the control unit 23 may acquire arbitrary external data D0 from the database DB1 according to the first input data D1 and add the external data D0 to the first input data D1. The control unit 23 may add feature amounts based on the added external data D0. The conversion processing includes processing that can be automatically executed by the control unit 23 based on the contents of the first input data D1. Note that the conversion processing may include processing that can be executed based on designation by the user. Further, in this embodiment, the conversion processing includes automatic conversion processing specified by comparing the first input data D1 with predetermined conversion conditions. The conversion conditions include, for example, the capacity of the first input data D1, whether or not the variance of the statistical information of the first input data D1 is less than a threshold, and whether or not there is an outlier based on the statistical information of the first input data D1. is. Conversion conditions also suggest the need for conversion processing to be performed.

また、変換処理は、受付部231に入力された第1の入力データD1の形式を、特定された学習器MLのそれぞれに適合する形式に変換する処理を含む。第1の入力データD1の形式は、例えば、第1の入力データD1の名称、文字コード、改行コード、表記言語、区切り文字などを含む。 The conversion process also includes a process of converting the format of the first input data D1 input to the reception unit 231 into a format suitable for each of the specified learning devices ML. The format of the first input data D1 includes, for example, the name of the first input data D1, character code, line feed code, writing language, delimiter, and the like.

例えば、特定された学習器MLに入力可能な入力データDの文字コードがUTF-8であるにも関わらず、第1の入力データD1の文字コードがShift-JISの場合、制御部23は、当該第1の入力データD1を、文字コードがUTF-8に変更された第2の入力データD2に変換する変換処理を実行する。 For example, when the character code of the input data D that can be input to the specified learning device ML is UTF-8, but the character code of the first input data D1 is Shift-JIS, the control unit 23 A conversion process is executed to convert the first input data D1 into second input data D2 whose character code is changed to UTF-8.

別例として、変換処理は、特定された複数の学習器MLに入力可能な第2の入力データD2のそれぞれに対して名称を付与する処理を含みうる。このとき、変換処理は、制御部23が第2の入力データD2を一意に特定可能な名称を、第2の入力データD2に付与することが好ましい。これにより、第2の入力データD2の管理が容易となる。なお、名称の付与は、第1の入力データD1の名称を変更することによって行われてもよい。 As another example, the conversion process may include a process of giving a name to each of the second input data D2 that can be input to the identified plurality of learners ML. At this time, it is preferable that the conversion process gives the second input data D2 a name by which the control unit 23 can uniquely identify the second input data D2. This facilitates management of the second input data D2. Note that the name may be assigned by changing the name of the first input data D1.

別例として、第1の入力データD1がBOM(Byte Order Mark)を含む場合、変換処理は、当該BOMの除去を含んでもよい。これにより、意図しないエラーが抑制しやすくなる。 As another example, when the first input data D1 includes a BOM (Byte Order Mark), the conversion process may include removal of the BOM. This makes it easier to suppress unintended errors.

別例として、変換処理は、第1の入力データD1に含まれる説明変数x1のうち、学習モデルM1の生成に用いられないものを除去する処理を含んでもよい。制御部23は、例えば、説明変数x1の形式、分布に基づいて、当該説明変数x1が学習モデルM1の生成に用いられるか否かを判定すればよい。これにより、第2の入力データD2の容量が軽減されるため、学習モデルM1の生成に必要な時間が短縮される。なお、変換処理の特定は、変換処理を行う必要がない場合などには、行う変換処理がないことを特定することを含みうる。 As another example, the conversion process may include a process of removing explanatory variables x1 included in the first input data D1 that are not used to generate the learning model M1. The control unit 23 may determine whether or not the explanatory variable x1 is used to generate the learning model M1, for example, based on the format and distribution of the explanatory variable x1. This reduces the volume of the second input data D2, thereby shortening the time required to generate the learning model M1. Note that specifying the conversion process may include specifying that there is no conversion process to be performed, for example, when there is no need to perform the conversion process.

別例として、変換処理は、第1の入力データD1に含まれる説明変数x1や出力y1に対するOne-Hot encoding、Ordinal encoding、Cardinal Encoding、未知のカテゴリ値の再割り当て、第1の入力データD1が不均衡な分布をもつ場合の分布の修正など、種々のデータ前処理を含みうる。 As another example, the conversion process includes One-Hot encoding, Ordinal encoding, and Cardinal encoding for the explanatory variable x1 and the output y1 included in the first input data D1, reassignment of unknown category values, and the first input data D1 is Various data pre-processing may be included, such as modifying the distribution if it has an imbalanced distribution.

別例として、変換処理は、正規化、特徴量変換、ターゲット変換(例えば、box-cox変換)、ターゲット変換(例えば、yeo-johnson0変換)、特徴量の選択、多重共線性の除去、主成分分析(PCA)、分散が低い特徴量の無視など、種々のスケール変換処理を含みうる。 As another example, the transformation process includes normalization, feature transformation, target transformation (eg, box-cox transformation), target transformation (eg, yeo-Johnson 0 transformation), feature selection, multicollinearity removal, principal component It can include various scaling operations such as analysis (PCA), ignoring features with low variance, etc.

別例として、変換処理は、第1の入力データD1等から抽出される特徴量に基づく新たな特徴量の生成又は変換をする処理、いわゆる特徴量エンジニアリング、を含みうる。このような処理としては、例えば、交互作用特徴量の作成、多項式特徴量の作成、サインコサイン変換特徴量の作成、グループ化した特徴量の作成、数値特徴量のビン化、クラスタの作成などが挙げられる。 As another example, the conversion process may include a process of generating or converting a new feature amount based on the feature amount extracted from the first input data D1 or the like, that is, so-called feature amount engineering. Such processing includes, for example, creation of interaction features, creation of polynomial features, creation of sine-cosine transform features, creation of grouped features, binning of numerical features, creation of clusters, and the like. mentioned.

制御部23は、当該変換処理が行われる条件、すなわち変換条件を特定してもよい。例えば、制御部23は、少なくとも第1の入力データD1と、後述する学習器MLと、に基づいて、変換条件を特定してもよい。例えば、制御部23は、第1の入力データD1を示す統計情報に基づき、変換条件を特定する。第1の入力データD1に関する統計情報とは、例えばデータ点の分布、平均値、分散、標準偏差、最大値、最小値、中央値、最頻値、再尤度、共分散、相関係数、R2値などを含む。変換処理が外れ値の除去の場合、制御部23は、あるデータ点と平均値との差分の絶対値が標準偏差の2倍以上である場合、当該データ点を外れ値と判断する。この場合、あるデータ点と平均値との差分の絶対値が標準偏差の2倍以上であることが、変換条件に相当する。 The control unit 23 may specify the conditions under which the conversion process is performed, that is, the conversion conditions. For example, the control unit 23 may specify the conversion condition based on at least the first input data D1 and the later-described learning device ML. For example, the control unit 23 identifies conversion conditions based on statistical information indicating the first input data D1. The statistical information about the first input data D1 includes, for example, data point distribution, mean value, variance, standard deviation, maximum value, minimum value, median value, mode value, re-likelihood, covariance, correlation coefficient, Including R2 value and so on. When the conversion process is removal of outliers, the control unit 23 determines that the data point is an outlier if the absolute value of the difference between the data point and the average value is twice the standard deviation or more. In this case, the conversion condition is that the absolute value of the difference between a certain data point and the average value is at least twice the standard deviation.

[アクティビティA003]
次に処理がアクティビティA003に進み、制御部23は、アクティビティA002で生成された第2の入力データD2を、学習器MLに入力する。学習器MLは、所定の分析手法を用いて、第2の入力データD2から学習モデルM1を生成する。分析手法は、任意であるが、例えば分類分析、回帰分析、及び時系列分析のうちの少なくとも1つを含む。分析手法としては、教師あり学習、教師なし学習、強化学習など任意のアルゴリズムのものを採用可能である。制御部23は、複数の分析手法のうちの学習モデルM1の生成に用いられる少なくとも1つの選択を受け付けてもよい。アクティビティA002にて行われる変換処理は、学習器MLにて用いられる分析手法に基づいて特定されてもよい。第2の入力データD2が入力される学習器MLが複数存在する場合、複数の学習器MLのそれぞれから、異なる学習モデルM1が生成される。第2の入力データD2が入力される学習器MLは、制御部23が第1の入力データD1に基づいて特定したものでもよい。また、当該学習器MLは、特定された学習器MLのなかからユーザが選択したものでもよい。
[Activity A003]
Next, the process proceeds to activity A003, and the control unit 23 inputs the second input data D2 generated in activity A002 to the learning device ML. The learning device ML uses a predetermined analysis technique to generate a learning model M1 from the second input data D2. Analytical techniques optionally include, for example, at least one of classification analysis, regression analysis, and time series analysis. Any algorithm such as supervised learning, unsupervised learning, or reinforcement learning can be used as the analysis method. The control unit 23 may receive selection of at least one of the plurality of analysis methods to be used for generating the learning model M1. The conversion process performed in activity A002 may be specified based on the analysis technique used by the learner ML. When there are a plurality of learners ML to which the second input data D2 are input, different learning models M1 are generated from each of the plurality of learners ML. The learning device ML to which the second input data D2 is input may be specified by the control unit 23 based on the first input data D1. Also, the learning device ML may be selected by the user from among the identified learning devices ML.

[アクティビティA004]
次に処理がアクティビティA004に進み、制御部23は、アクティビティA003で生成された学習モデルM1を取得する。生成された学習モデルM1が複数存在する場合、制御部23は、当該学習モデルM1の少なくとも1つを取得する。複数の学習モデルM1が取得された場合、制御部23は、第1の入力データD1に基づき、学習モデルM1に関するモデル情報IF1を、学習モデルM1ごとに比較可能な態様で表示部34に表示させてもよい。例えば、制御部23は、少なくとも、生成される学習モデルM1ごとの精度情報を比較可能に表示させもよい。また、制御部23は、それぞれの学習モデルM1に関するモデル情報IF1を、表示部34に一覧可能に表示させてもよい。
[Activity A004]
Next, the process proceeds to activity A004, and the control unit 23 acquires the learning model M1 generated in activity A003. When there are a plurality of generated learning models M1, the control unit 23 acquires at least one of the learning models M1. When a plurality of learning models M1 are acquired, the control unit 23 causes the display unit 34 to display the model information IF1 regarding the learning models M1 in a manner that enables comparison for each learning model M1 based on the first input data D1. may For example, the control unit 23 may display at least accuracy information for each learning model M1 that is generated so that comparison is possible. Further, the control unit 23 may cause the display unit 34 to display the model information IF1 related to each learning model M1 in a viewable manner.

モデル情報IF1は、学習モデルM1に関する情報である。例えば、モデル情報IF1は、学習モデルM1の生成に用いられた第1の入力データD1の名称、容量、学習モデルM1が生成された日時などを含みうる。第1の入力データD1の名称とは、例えば、第1の入力データD1のファイル名である。本実施形態では、モデル情報IF1は、少なくとも学習モデルM1の予測精度に関する精度情報を含む。分析手法が回帰分析の場合、精度情報は、例えば、決定係数(R2スコア)、平均二乗誤差(MSE:Means Squared Error)、平均絶対誤差(MAE:Means Absolute Error)、平均二乗偏差(RMSE:Root Mean Squared Error)、二乗平均平方根誤差(RMSE:Root Mean Squared Error)、対数平均二乗誤差(RMLSE:Root Mean Squared Logarithmic Error)、平均絶対パーセント誤差(MAPE:Mean Absolute Percentage Error)などの指標を含む。分析手法が分類分析の場合、精度情報は、正解率(Accuracy)、再現率(Recall)、適合率(Precision)、特異度(Specificity)、F値(F-measure)、重み付きF値、マシューズ相関係数(MCC:Matthews Correlation Coefficient)、カッパ係数(Kappa)、ログ損失(Logloss)、AUC:Area Under the Curve、PR-AUC:Area Under the Precision-Recall curveなどの指標を含む。上記精度情報は、二値分類に用いられるものに限られず、2より大きい他クラス分類に用いられるものであってもよい。分析手法が時系列分析の場合、精度情報は、例えば、変動係数(Coefficient of Variation)、動的時間伸縮法での平均絶対誤差(Dynamic Time Warping MAE)、MAPE、対称平均絶対パーセント誤差(SMAPE:Symmetric MAPE)、加重SMAPE、平均絶対スケール誤差(MASE:Mean Absolute Scaled Error)、MARRE: Mean Absolute Ranged Relative Error、Overall Percentage error、R2、rho-risk RMSLEなどの指標を含む。精度情報は、各パラメータの統計値、例えば、MAEの中央値(MAE median)、MAEの平均値(MAE mean)などを含んでもよい。ある分析手法の指標が、他の分析手法の指標として用いられてもよい。 The model information IF1 is information about the learning model M1. For example, the model information IF1 can include the name and capacity of the first input data D1 used to generate the learning model M1, the date and time when the learning model M1 was generated, and the like. The name of the first input data D1 is, for example, the file name of the first input data D1. In this embodiment, the model information IF1 includes at least accuracy information regarding the prediction accuracy of the learning model M1. When the analysis method is regression analysis, the accuracy information is, for example, the coefficient of determination (R2 score), the mean squared error (MSE), the mean absolute error (MAE), the mean squared deviation (RMSE: Root Mean Squared Error (RMSE), Root Mean Squared Error (RMSE), Logarithmic Mean Squared Logarithmic Error (RMLSE), Mean Absolute Percentage Error (MAPE) or). When the analysis method is classification analysis, the accuracy information includes accuracy, recall, precision, specificity, F value (F-measure), weighted F value, Matthews Including indicators such as the correlation coefficient (MCC: Matthews Correlation Coefficient), the kappa coefficient (Kappa), the log loss (Logloss), AUC: Area Under the Curve, PR-AUC: Area Under the Precision-Recall curve. The accuracy information is not limited to that used for binary classification, and may be used for other class classification greater than two. When the analysis method is time series analysis, the accuracy information is, for example, Coefficient of Variation, Dynamic Time Warping MAE, MAPE, Symmetric Mean Absolute Percentage Error (SMAPE: Symmetric MAPE), Weighted SMAPE, Mean Absolute Scaled Error (MASE), MARRE: Mean Absolute Ranged Relative Error, Overall Percentage error, R2, rho-risk RMSLE. The accuracy information may include statistical values of each parameter, such as MAE median and MAE mean. An index for one analysis method may be used as an index for another analysis method.

[アクティビティA005]
次に処理がアクティビティA005に進み、生成部233は、学習画面13を生成する。生成された学習画面13は、表示部34に表示される。
[Activity A005]
Next, the process proceeds to activity A005, and the generation unit 233 generates the learning screen 13. FIG. The generated learning screen 13 is displayed on the display unit 34 .

<学習画面13>
図6は、表示部34に表示される学習画面13の一例を示す図である。学習画面13は、例えば、第1の入力データD1を用いて生成された学習モデルM1の再学習のための画面である。学習画面13は、入力領域132と、学習領域133と、結果領域134と、第1の外部コネクタEC1と、第2の外部コネクタEC2と、を含む。
<Learning screen 13>
FIG. 6 is a diagram showing an example of the learning screen 13 displayed on the display unit 34. As shown in FIG. The learning screen 13 is, for example, a screen for re-learning the learning model M1 generated using the first input data D1. The learning screen 13 includes an input area 132, a learning area 133, a results area 134, a first external connector EC1, and a second external connector EC2.

<入力領域132>
入力領域132は、入力データDに関するデータ情報を提示可能な領域である。データ情報とは、例えば、各入力データD1,D2の容量、形式、タイムスタンプ、統計情報、説明変数x1の変数名などを含む。また、データ情報は、変換処理に関する情報を含む。変換処理に関する情報とは、変換処理の内容、履歴、タイムスタンプなどを含む。本実施形態の入力領域132は、複数の入力内部領域1320と、第1の内部コネクタIC1と、を含む。なお、入力内部領域1320の数は、複数に限られず1つでもよい。
<Input area 132>
The input area 132 is an area in which data information regarding the input data D can be presented. The data information includes, for example, the capacity, format, time stamp, statistical information of each of the input data D1 and D2, the variable name of the explanatory variable x1, and the like. The data information also includes information on conversion processing. The information about the conversion process includes contents of the conversion process, history, time stamp, and the like. The input area 132 of this embodiment includes a plurality of input internal areas 1320 and a first internal connector IC1. Note that the number of input internal regions 1320 is not limited to plural, and may be one.

<入力内部領域1320>
入力内部領域1320のそれぞれは、入力データDに対する操作の単位を示す。入力データDに対する操作の単位とは、例えば、受付部231が受け付ける第1の入力データD1の選択、第1の入力データD1に対する名称の付与、第1の入力データD1に対する変換処理、変換処理が施された第1の入力データD1の出力などである。入力内部領域1320の1つは、少なくとも受付領域1321を含む。本実施形態では、入力内部領域1320は、受付領域1321と、変換処理指定領域1322と、入力データ出力領域1323と、第1の指数表示領域N1と、を含む。
<Input inner area 1320>
Each of the input inner areas 1320 indicates a unit of operation on the input data D. FIG. The unit of operation on the input data D is, for example, the selection of the first input data D1 received by the receiving unit 231, the giving of the name to the first input data D1, the conversion processing on the first input data D1, and the conversion processing. It is the output of the applied first input data D1, and the like. One of the input inner areas 1320 includes at least a reception area 1321 . In this embodiment, the input internal area 1320 includes a reception area 1321, a conversion process designation area 1322, an input data output area 1323, and a first exponent display area N1.

<受付領域1321>
受付領域1321は、ユーザからの入力データDの入力を受付可能な領域である。ユーザは、受付領域1321に対して操作を行うことにより、受付部231への第1の入力データD1の入力をすることができる。
<reception area 1321>
The reception area 1321 is an area that can receive the input of the input data D from the user. The user can input the first input data D<b>1 to the reception unit 231 by operating the reception area 1321 .

<変換処理指定領域1322>
変換処理指定領域1322は、受付領域1321にて入力された第1の入力データD1に対する変換処理に関する情報を提示可能に構成されている。変換処理指定領域1322は、変換処理指定領域1322に対するユーザの操作に応じて、変換処理を指定可能に構成されていてもよい。
<Conversion processing designation area 1322>
The conversion processing designation area 1322 is configured to be able to present information on conversion processing for the first input data D1 input in the reception area 1321 . The conversion process designation area 1322 may be configured so that the conversion process can be designated according to the user's operation on the conversion process designation area 1322 .

<入力データ出力領域1323>
入力データ出力領域1323は、ユーザの操作に応じて入力データDを出力可能に構成されている。入力データ出力領域1323は、例えば、第2の入力データD2を出力可能に構成されている。第2の入力データD2の出力形式は、csv形式、txt形式、バイナリ形式など任意である。第2の入力データD2の出力形式は、制御部23により自動で決定されても、ユーザによって指定可能に構成されていてもよい。出力された第2の入力データD2は、例えば、データベースDB1、記憶部22,32など、任意のデバイスに記憶されてもよい。特に第2の入力データD2がデータベースDB1に記憶される場合、当該第2の入力データD2は、外部データD0として利用可能であってもよい。これにより、学習モデルM1に入力可能な第1の入力データD1の増加に伴い、学習モデルM1の性能が向上する。
<Input data output area 1323>
The input data output area 1323 is configured to be able to output the input data D according to the user's operation. The input data output area 1323 is configured to be able to output the second input data D2, for example. The output format of the second input data D2 is arbitrary, such as csv format, txt format, and binary format. The output format of the second input data D2 may be automatically determined by the control unit 23, or may be designated by the user. The output second input data D2 may be stored in any device such as the database DB1 and the storage units 22 and 32, for example. Especially when the second input data D2 are stored in the database DB1, the second input data D2 may be available as external data D0. As a result, the performance of the learning model M1 improves as the first input data D1 that can be input to the learning model M1 increases.

<第1の内部コネクタIC1>
第1の内部コネクタIC1は、入力内部領域1320の間を接続する。第1の内部コネクタIC1は、入力内部領域1320同士の関係性に基づいて、入力内部領域1320の間を接続する。例えば、第1の内部コネクタIC1は、入力内部領域1320のそれぞれの入力データDに対する操作の前後関係に応じて、入力内部領域1320の間を接続する。本実施形態では、第1の内部コネクタIC1は、受付領域1321と変換処理指定領域1322との間を接続する。これにより、第1の入力データD1と変換処理との関連性が、第1の内部コネクタIC1による接続関係から把握しやすくなる。なお、他の入力内部領域1320に対応する操作と独立している操作を示す入力内部領域1320は、第1の内部コネクタIC1を介して他の入力内部領域1320と接続されていなくてもよい。本実施形態では、入力データ出力領域1323は、他の入力内部領域1320と接続されていない。第1の内部コネクタIC1は、設けられていなくてもよい。
<First internal connector IC1>
A first internal connector IC1 connects between the input internal regions 1320 . The first internal connector IC1 connects between the input internal areas 1320 based on the relationship between the input internal areas 1320 . For example, the first internal connector IC1 connects between the input internal areas 1320 according to the context of the operation on the input data D of each of the input internal areas 1320 . In this embodiment, the first internal connector IC1 connects between the reception area 1321 and the conversion processing designation area 1322 . This makes it easier to grasp the relationship between the first input data D1 and the conversion process from the connection relationship by the first internal connector IC1. It should be noted that the input internal area 1320 indicating the operation independent of the operation corresponding to the other input internal area 1320 may not be connected to the other input internal area 1320 via the first internal connector IC1. In this embodiment, the input data output area 1323 is not connected to other input internal areas 1320 . The first internal connector IC1 may not be provided.

<第1の指数表示領域N1>
第1の指数表示領域N1には、予め入力領域132に付与された指数が表示される。当該指数は、例えば、処理の順序に応じた整数が表示される。なお、指数の具体的態様は、整数等の数字に限られず、任意の文字列であってもよい。第1の指数表示領域N1は、設けられていなくてもよい。
<First index display area N1>
An index assigned in advance to the input area 132 is displayed in the first index display area N1. The index is displayed as an integer corresponding to the order of processing, for example. Note that the specific aspect of the exponent is not limited to numbers such as integers, and may be arbitrary character strings. The first index display area N1 may not be provided.

<学習領域133>
学習領域133は、入力データDを用いた学習モデルM1の学習条件を設定可能な領域である。学習条件とは、例えば、学習モデルM1への入力データDの入力態様、学習モデルM1の生成に用いられる分析手法、学習器MLで用いられるアルゴリズム、学習器MLの計算コストの上限などである。計算コストとは、例えば、計算時間、計算回数、学習器MLの利用料金などが含まれる。学習領域133は、複数の学習内部領域1330と、第2の内部コネクタIC2と、を含む。なお、学習内部領域1330の数は複数に限られず1つでもよい。
<Learning area 133>
The learning area 133 is an area in which learning conditions for the learning model M1 using the input data D can be set. The learning conditions are, for example, the input mode of the input data D to the learning model M1, the analysis method used to generate the learning model M1, the algorithm used in the learning device ML, the upper limit of the calculation cost of the learning device ML, and the like. The calculation cost includes, for example, the calculation time, the number of calculations, the fee for using the learning device ML, and the like. The learning area 133 includes a plurality of internal learning areas 1330 and a second internal connector IC2. Note that the number of internal learning areas 1330 is not limited to a plurality, and may be one.

<学習内部領域1330>
学習内部領域1330のそれぞれは、学習条件の設定の単位を示す。学習内部領域1330の1つは、指定領域1331を含む。本実施形態では、学習内部領域1330は、指定領域1331と、予測設定領域1332と、モデル情報表示領域1333と、第1の切替領域1334と、を含む。
<Learning inner area 1330>
Each learning inner area 1330 indicates a unit for setting learning conditions. One of the learning inner areas 1330 includes a designated area 1331 . In this embodiment, the learning inner area 1330 includes a designation area 1331 , a prediction setting area 1332 , a model information display area 1333 and a first switching area 1334 .

<指定領域1331>
指定領域1331は、少なくとも学習モデルM1への入力データDの入力態様を指定可能な領域である。例えば、ユーザは、入力データDの入力態様として、入力するデータ点の数、入力データDの分割比、入力データDを入力する学習器MLなどを、指定領域1331にて指定可能である。入力データDの入力態様を指定する具体的態様は、任意である。例えば、生成部233は、ポップアップで入力態様を指定するための領域を生成しても、学習画面13とは異なる指定用の画面を生成してもよい。
<Specified area 1331>
The designation area 1331 is an area in which at least the input mode of the input data D to the learning model M1 can be designated. For example, the user can specify the number of data points to be input, the division ratio of the input data D, the learner ML for inputting the input data D, and the like as the input mode of the input data D in the specification area 1331 . A specific mode for designating the input mode of the input data D is arbitrary. For example, the generating unit 233 may generate a pop-up area for designating an input mode, or may generate a designation screen different from the learning screen 13 .

<予測設定領域1332>
予測設定領域1332は、学習モデルM1を用いた出力y1の出力態様を指定可能な領域である。例えば、ユーザは、出力y1の出力態様として、学習モデルM1の生成に用いられる分析手法、学習器MLで用いられるアルゴリズム、学習器MLの計算コストの上限などを、予測設定領域1332にて指定可能である。出力態様を指定する具体的態様は、指定領域1331と同様に任意である。予測設定領域1332は、設定実行ラベルW1を含む。設定実行ラベルW1は、予測設定領域1332にて出力y1の出力態様の指定が行われたか否かを示す。制御部23は、ユーザが設定実行ラベルW1に対して操作を行うことにより、予測設定領域1332にて指定された出力y1出力態様の指定を保存してもよい。設定実行ラベルW1の表示態様は、当該指定の有無によって異なっていてもよい。これにより、ユーザが予測設定領域1332での指定をし忘れる可能性を下げることができる。
<Prediction setting area 1332>
The prediction setting area 1332 is an area in which the output mode of the output y1 using the learning model M1 can be designated. For example, the user can specify the analysis method used to generate the learning model M1, the algorithm used in the learning device ML, the upper limit of the calculation cost of the learning device ML, etc. as the output mode of the output y1 in the prediction setting area 1332. is. A specific mode for designating the output mode is arbitrary like the designation area 1331 . Predicted settings area 1332 includes set execution label W1. The setting execution label W1 indicates whether or not the output mode of the output y1 has been specified in the prediction setting area 1332 . The control unit 23 may store the specification of the output y1 output mode specified in the prediction setting area 1332 by the user's operation on the setting execution label W1. The display mode of the setting execution label W1 may differ depending on the presence or absence of the designation. This reduces the possibility that the user will forget to specify in the prediction setting area 1332 .

<モデル情報表示領域1333>
モデル情報表示領域1333は、学習モデルM1のモデル情報IF1の少なくとも一部を表示可能に構成されている。制御部23は、ユーザによるモデル情報表示領域1333に対する操作に応じて、表示させるモデル情報IF1を変化させてもよい。制御部23は、モデル情報IF1に含まれる精度情報が所定の条件を満たすか否かに応じて、モデル情報表示領域1333の表示態様を変化させてもよい。当該条件とは、例えば、学習モデルM1の予測精度が予め設定された基準を満たすか否かを示すものである。これにより、ユーザが学習モデルM1の予測精度が十分か否かを把握することが容易となる。
<Model information display area 1333>
The model information display area 1333 is configured to be able to display at least part of the model information IF1 of the learning model M1. The control unit 23 may change the model information IF1 to be displayed according to the operation of the model information display area 1333 by the user. The control unit 23 may change the display mode of the model information display area 1333 depending on whether or not the accuracy information included in the model information IF1 satisfies a predetermined condition. The condition indicates, for example, whether or not the prediction accuracy of the learning model M1 satisfies a preset criterion. This makes it easier for the user to grasp whether the prediction accuracy of the learning model M1 is sufficient.

<第1の切替領域1334>
第1の切替領域1334は、ユーザが第1の切替操作Op1を行うためのUIである。第1の切替操作Op1により、生成部233は、運用画面14を生成し、表示部34に表示される画面を学習画面13から運用画面14に切り替える。当該処理の内容は、後述のアクティビティA007の説明の際に詳述される。
<First switching area 1334>
A first switching area 1334 is a UI for the user to perform the first switching operation Op1. By the first switching operation Op1, the generation unit 233 generates the operation screen 14 and switches the screen displayed on the display unit 34 from the learning screen 13 to the operation screen 14. FIG. The details of this process will be described in detail when describing activity A007 below.

<第2の内部コネクタIC2>
第2の内部コネクタIC2は、学習内部領域1330の間を接続する。第2の内部コネクタIC2は、学習内部領域1330同士の関係性に基づいて、学習内部領域1330の間を接続する。例えば、第2の内部コネクタIC2は、学習内部領域1330のそれぞれの入力データDに対する操作の前後関係に応じて、学習内部領域1330の間を接続する。本実施形態では、第2の内部コネクタIC2の1つは、指定領域1331と予測設定領域1332との間を接続する。また、第2の内部コネクタIC2の1つは、予測設定領域1332とモデル情報表示領域1333との間を接続する。これにより、ユーザは、学習領域133での操作手順を第2の内部コネクタIC2から把握しやすくなる。なお、他の学習内部領域1330に対応する操作と独立している操作を示す学習内部領域1330には、第2の内部コネクタIC2が接続されていなくてもよい。本実施形態では、第1の切替領域1334が、第2の内部コネクタIC2によって他の学習内部領域1330と接続されていない。
<Second internal connector IC2>
A second internal connector IC2 connects between the learning internal regions 1330 . The second internal connector IC2 connects the internal learning areas 1330 based on the relationship between the internal learning areas 1330 . For example, the second internal connector IC2 connects the internal learning areas 1330 according to the context of the operation on the input data D of each internal learning area 1330 . In this embodiment, one of the second internal connectors IC2 connects between the specified area 1331 and the predicted setting area 1332 . Also, one of the second internal connectors IC2 connects between the prediction setting area 1332 and the model information display area 1333 . This makes it easier for the user to grasp the operation procedure in the learning area 133 from the second internal connector IC2. Note that the second internal connector IC2 does not have to be connected to the internal learning area 1330 that indicates an operation that is independent of the operations corresponding to the other internal learning areas 1330 . In this embodiment, the first switching area 1334 is not connected to the other internal learning areas 1330 by the second internal connector IC2.

<第2の指数表示領域N2>
第2の指数表示領域N2には、予め学習領域133に付与された指数が表示される。当該指数は、例えば、処理の順序に応じた整数が表示される。なお、指数の具体的態様は、整数等の数字に限られず、任意の文字列であってもよい。第2の指数表示領域N2は、設けられていなくてもよい。
<Second index display area N2>
An index assigned in advance to the learning area 133 is displayed in the second index display area N2. The index is displayed as an integer corresponding to the order of processing, for example. Note that the specific aspect of the exponent is not limited to numbers such as integers, and may be arbitrary character strings. The second index display area N2 may not be provided.

<結果領域134>
結果領域134は、入力データDを用いた学習モデルM1の出力に関する結果情報IF3を表す領域である。結果領域134は、複数の結果内部領域1340と、第3の内部コネクタIC3と、を含む。なお、学習内部領域1330の数は複数に限られず1つでもよい。
<result area 134>
The result area 134 is an area representing the result information IF3 regarding the output of the learning model M1 using the input data D. FIG. Result area 134 includes a plurality of result inner areas 1340 and a third inner connector IC3. Note that the number of internal learning areas 1330 is not limited to a plurality, and may be one.

<結果内部領域1340>
結果内部領域1340は、出力表示領域1341と、出力処理指定領域1342と、出力処理領域1343と、を含む。
<result inner area 1340>
The result inner area 1340 includes an output display area 1341 , an output processing designation area 1342 and an output processing area 1343 .

<出力表示領域1341>
出力表示領域1341は、出力y1による予測結果を表示可能に構成される。当該出力y1は、入力領域132にて入力された第1の入力データD1と、学習領域133にて設定された学習条件と、に基づき学習モデルM1から出力される。予測結果は、結果情報IF3として表示されても、予測結果の優劣を示す記号、例えば、優良可、など、任意の態様で表示可能である。
<Output display area 1341>
The output display area 1341 is configured to be able to display the prediction result based on the output y1. The output y1 is output from the learning model M1 based on the first input data D1 input in the input area 132 and the learning conditions set in the learning area 133. FIG. Even if the prediction result is displayed as the result information IF3, it can be displayed in any form, such as a symbol indicating the superiority or inferiority of the prediction result, for example, "excellent".

<出力処理指定領域1342>
出力処理指定領域1342は、当該出力y1に対する処理を指定可能に構成されている。例えば、出力処理指定領域1342は、出力y1に対する処理として、出力表示領域1341での予測結果の表示態様の変更、出力y1に対する変換処理、例えば、外れ値の除去、などを指定可能に構成されている。
<Output process designation area 1342>
The output processing designation area 1342 is configured to be able to designate processing for the output y1. For example, the output process designation area 1342 is configured to be able to designate, as the process for the output y1, a change in the display mode of the prediction result in the output display area 1341, a conversion process for the output y1, such as removal of outliers, and the like. there is

<出力処理領域1343>
出力処理領域1343は、ユーザによる操作に応じて、出力処理指定領域1342にて指定された処理を実行するか否かを決定可能なUIである。生成部233は、ユーザによる出力処理領域1343の操作に応じて、出力処理の実行結果を表示可能な画面を生成して、当該画面を表示部34に表示させてもよい。
<Output processing area 1343>
The output processing area 1343 is a UI that can determine whether or not to execute the process specified in the output process specifying area 1342 according to the user's operation. The generation unit 233 may generate a screen capable of displaying the execution result of the output process according to the user's operation on the output processing area 1343 and cause the display unit 34 to display the screen.

<第3の内部コネクタIC3>
第3の内部コネクタIC3は、結果内部領域1340の間を接続する。第3の内部コネクタIC3は、結果内部領域1340同士の関係性に基づいて、結果内部領域1340の間を接続する。例えば、第3の内部コネクタIC3は、結果内部領域1340のそれぞれの入力データDに対する操作の前後関係に応じて、結果内部領域1340の間を接続する。本実施形態では、第3の内部コネクタIC3は、出力表示領域1341と出力処理指定領域1342との間を接続する。これにより、出力y1と出力y1に対する処理との関連性が、第3の内部コネクタIC3による接続関係から把握しやすくなる。なお、他の結果内部領域1340に対応する操作と独立している操作を示す結果内部領域1340は、第3の内部コネクタIC3を介して他の結果内部領域1340と接続されていなくてもよい。本実施形態では、出力処理領域1343は、他の結果内部領域1340と接続されていない。第3の内部コネクタIC3は、設けられていなくてもよい。
<Third internal connector IC3>
A third internal connector IC3 connects between the resulting internal regions 1340 . The third internal connector IC3 connects between the resulting internal areas 1340 based on the relationship between the resulting internal areas 1340 . For example, the third internal connector IC3 connects the internal result areas 1340 according to the context of the operation on the input data D of each of the internal result areas 1340 . In this embodiment, the third internal connector IC3 connects between the output display area 1341 and the output processing designation area 1342 . This makes it easier to grasp the relationship between the output y1 and the processing for the output y1 from the connection relationship by the third internal connector IC3. It should be noted that the result internal area 1340 indicating the operation independent of the operation corresponding to the other result internal area 1340 may not be connected to the other result internal area 1340 via the third internal connector IC3. In this embodiment, the output processing area 1343 is not connected to other result inner areas 1340 . The third internal connector IC3 may not be provided.

<第3の指数表示領域N3>
第3の指数表示領域N3には、予め結果領域134に付与された指数が表示される。当該指数は、例えば、処理の順序に応じた整数が表示される。なお、指数の具体的態様は、整数等の数字に限られず、任意の文字列であってもよい。第3の指数表示領域N3は、設けられていなくてもよい。
<Third index display area N3>
An index assigned in advance to the result area 134 is displayed in the third index display area N3. The index is displayed as an integer corresponding to the order of processing, for example. Note that the specific aspect of the exponent is not limited to numbers such as integers, and may be arbitrary character strings. The third index display area N3 may not be provided.

<外部コネクタEC1、EC2>
第1の外部コネクタEC1は、入力領域132と学習領域133とを対応付ける。詳細には、第1の外部コネクタEC1は、入力領域132と学習領域133とを接続する。これにより、ユーザが、入力領域132での操作の後に学習領域133の操作を行うべきことを視覚的に把握しやすくなる。本実施形態では、第1の外部コネクタEC1の入力領域132への接続態様は、第1の外部コネクタEC1の学習領域133への接続態様と異なる。例えば、第1の外部コネクタEC1は、入力領域132の第1の指数表示領域N1と、学習領域133の縁とを接続する。これにより、第1の外部コネクタEC1の始点と終点の態様が異なるため、ユーザによる学習画面13の操作手順の把握がより容易となる。
<External connectors EC1, EC2>
A first external connector EC1 associates the input area 132 with the learning area 133 . Specifically, the first external connector EC1 connects the input area 132 and the learning area 133 . This makes it easier for the user to visually grasp that the operation in the learning area 133 should be performed after the operation in the input area 132 . In this embodiment, the manner in which the first external connector EC1 is connected to the input area 132 is different from the manner in which the first external connector EC1 is connected to the learning area 133 . For example, the first external connector EC1 connects the first exponent display area N1 of the input area 132 and the edge of the learning area 133 . This makes it easier for the user to grasp the operation procedure of the learning screen 13 because the mode of the start point and the end point of the first external connector EC1 is different.

第2の外部コネクタEC2は、学習領域133と結果領域134とを対応付ける。第2の外部コネクタEC2は、学習領域133と結果領域134とを接続する。これにより、ユーザが、学習領域133での操作の後に学習領域133の操作を行うべきことを視覚的に把握しやすくなる。特に、第1の外部コネクタEC1と第2の外部コネクタEC2との両方が設けられることで、ユーザが学習画面13での一連の操作の流れの全体像を把握することが容易となる。本実施形態では、第2の外部コネクタEC2の学習領域133への接続態様は、第2の外部コネクタEC2の結果領域134への接続態様と異なる。例えば、第2の外部コネクタEC2は、学習領域133の第2の指数表示領域N2と、結果領域134の縁とを接続する。これにより、第2の外部コネクタEC2の始点と終点の態様が異なるため、ユーザによる学習画面13の操作手順の把握がより容易となる。 A second external connector EC2 associates the learning area 133 with the results area 134 . A second external connector EC2 connects the learning area 133 and the results area 134 . This makes it easier for the user to visually grasp that the learning area 133 should be operated after the operation in the learning area 133 . In particular, providing both the first external connector EC1 and the second external connector EC2 makes it easier for the user to grasp the overall flow of a series of operations on the learning screen 13 . In this embodiment, the manner in which the second external connector EC2 is connected to the learning area 133 is different from the manner in which the second external connector EC2 is connected to the result area 134 . For example, a second external connector EC2 connects the second index display area N2 of the learning area 133 and the edge of the results area 134. FIG. As a result, the mode of the start point and the end point of the second external connector EC2 is different, so that it becomes easier for the user to grasp the operation procedure of the learning screen 13. FIG.

[アクティビティA006]
図5に示すように、アクティビティA005にて上記学習画面13が生成された後、処理がアクティビティA006に進み、受付部231は、入力領域132に対する操作を受け付ける。受付部231に対する操作が完了した場合、第1の外部コネクタEC1の表示態様が変更される。表示態様の変更方法は、第1の外部コネクタEC1の形状、模様、色彩の変更など、ユーザが変化を視認可能であれば任意である。これにより、ユーザが現在するべき操作を視覚的に把握しやすくなる。
[Activity A006]
As shown in FIG. 5, after the learning screen 13 is generated in activity A005, the process proceeds to activity A006, and the reception unit 231 receives an operation on the input area 132. FIG. When the operation on the reception unit 231 is completed, the display mode of the first external connector EC1 is changed. Any method can be used to change the display mode, such as changing the shape, pattern, or color of the first external connector EC1, as long as the user can visually recognize the change. This makes it easier for the user to visually grasp the operation to be performed at present.

[アクティビティA007]
受付部231に対する操作が完了した後、処理がアクティビティA007に進み、受付部231は、学習領域133に対する操作を受け付ける。このとき、学習領域133にて第1の切替領域1334に対する第1の切替操作Op1が行われずに学習領域133に対する操作が完了した場合、処理がアクティビティA008に進む。この場合、第2の外部コネクタEC2の表示態様が、第1の外部コネクタEC1の表示態様と同様に変更される。
[Activity A007]
After completing the operation on the accepting unit 231 , the process proceeds to activity A 007 , where the accepting unit 231 accepts an operation on the learning area 133 . At this time, if the first switching operation Op1 for the first switching area 1334 is not performed in the learning area 133 and the operation for the learning area 133 is completed, the process proceeds to activity A008. In this case, the display mode of the second external connector EC2 is changed to be the same as the display mode of the first external connector EC1.

[アクティビティA008]
アクティビティA008にて、受付部231は、結果領域134に対する操作を受け付ける。
[Activity A008]
At activity A008, the accepting unit 231 accepts an operation on the result area 134. FIG.

[アクティビティA009]
次に、処理がアクティビティA009に進み、制御部23は、学習画面13にて指定された第1の入力データD1や学習条件等に基づき、学習モデルM1の再学習を実行する。
[Activity A009]
Next, the process proceeds to activity A009, and the control unit 23 re-learns the learning model M1 based on the first input data D1 and learning conditions specified on the learning screen 13. FIG.

[アクティビティA010]
次に、処理がアクティビティA010に進み、制御部23は、再学習された学習モデルM1のモデル情報IF1を取得する。制御部23は、再学習された学習モデルM1から出力される出力y1から結果情報IF3を取得してもよい。制御部23は、取得したこれらの情報を、表示部34に表示させてもよい。これらの情報は、学習画面13と異なる画面を用いて表示されても、学習画面13の更新によって表示されてもよい。取得された学習モデルM1が複数存在する場合、制御部23は、第1の入力データD1に基づき、モデル情報IF1を、学習モデルごとに比較可能な態様で表示部34に表示させてもよい。例えば、制御部23は、特定された学習器MLのうち、選択により選択された学習器MLを用いて生成されるモデル情報IF1を表示部34に表示させる。ユーザは、入力領域132に対する操作、学習領域133に対する操作、及び結果領域134に対する操作を順次受け付けることを、外部コネクタEC1,EC2のそれぞれの接続態様から視覚的に把握できる。
[Activity A010]
Next, the process proceeds to activity A010, and the control unit 23 acquires model information IF1 of the re-learned learning model M1. The control unit 23 may obtain the result information IF3 from the output y1 output from the re-learned learning model M1. The control unit 23 may cause the display unit 34 to display the acquired information. These pieces of information may be displayed using a screen different from the learning screen 13 or may be displayed by updating the learning screen 13 . When there are a plurality of acquired learning models M1, the control unit 23 may cause the display unit 34 to display the model information IF1 in a manner that enables comparison for each learning model based on the first input data D1. For example, the control unit 23 causes the display unit 34 to display the model information IF1 generated using the selected learner ML among the specified learners ML. The user can visually grasp that the operation on the input area 132, the operation on the learning area 133, and the operation on the result area 134 are sequentially received from the respective connection states of the external connectors EC1 and EC2.

[アクティビティA101]
一方、アクティビティA007にて学習領域133にて第1の切替領域1334に対する第1の切替操作Op1が行われた場合、処理がアクティビティA101に進む。アクティビティA101にて、制御部23は、学習モデルM1から運用学習モデルM2を生成する。運用学習モデルM2は、学習モデルM1をデプロイ用に変換したものである。詳細には、運用学習モデルM2は、学習領域133に表示された学習モデルM1をデプロイ用に変換したものである。運用学習モデルM2の形式は、学習モデルM1の形式に比べて大容量の入力データDの処理に適している。以下、説明の便宜上、運用学習モデルM2に入力される入力データDを、運用データD3という。運用データD3は、学習モデルM1の生成に用いられた第1の入力データD1の少なくとも一部を含んでも、当該第1の入力データD1を含まなくてもよい。
[Activity A101]
On the other hand, when the first switching operation Op1 is performed on the first switching area 1334 in the learning area 133 in activity A007, the process proceeds to activity A101. At activity A101, the control unit 23 generates an operational learning model M2 from the learning model M1. The operational learning model M2 is obtained by converting the learning model M1 for deployment. Specifically, the operation learning model M2 is obtained by converting the learning model M1 displayed in the learning area 133 for deployment. The format of the operational learning model M2 is more suitable for processing large amounts of input data D than the format of the learning model M1. Hereinafter, for convenience of explanation, the input data D input to the operational learning model M2 will be referred to as operational data D3. The operational data D3 may include at least part of the first input data D1 used to generate the learning model M1, or may not include the first input data D1.

[アクティビティA102]
次に処理がアクティビティA102に進み、生成部233は、第1の切替領域1334に対するユーザの第1の切替操作Op1に応じて運用画面14を生成する。生成された運用画面14は、表示部34に表示される。本実施形態では、運用画面14は、学習画面13に代えて表示される。なお、運用画面14は、学習画面13とともに表示可能に構成されてもよい。
<運用画面14>
図7は、表示部34に表示される運用画面14の一例を示す図である。運用画面14には、少なくとも1つのパイプラインPLが表示される。本実施形態では、1つのパイプラインPLが運用画面14に表示されている。
[Activity A102]
Next, the process proceeds to activity A102, and the generating unit 233 generates the operation screen 14 according to the user's first switching operation Op1 for the first switching area 1334. FIG. The generated operation screen 14 is displayed on the display unit 34 . In this embodiment, the operation screen 14 is displayed instead of the learning screen 13 . Note that the operation screen 14 may be configured to be displayable together with the learning screen 13 .
<Operation screen 14>
FIG. 7 is a diagram showing an example of the operation screen 14 displayed on the display unit 34. As shown in FIG. At least one pipeline PL is displayed on the operation screen 14 . In this embodiment, one pipeline PL is displayed on the operation screen 14 .

<パイプラインPL>
パイプラインPLは、運用学習モデルM2のデータフローを示す。データフローは、受付部231による第1の入力データD1の受付から、を用いて結果情報IF3が得られるまでの処理の流れに対応する。パイプラインPLは、複数のジョブ領域140と、複数のフローコネクタF1と、第2の切替領域147と、を含む。なお、ジョブ領域140の数、及びフローコネクタF1の数は、それぞれ複数に限られず1つでもよい。
<Pipeline PL>
A pipeline PL indicates the data flow of the operational learning model M2. The data flow corresponds to the flow of processing from reception of the first input data D1 by the reception unit 231 to obtaining result information IF3 using . The pipeline PL includes a plurality of job areas 140, a plurality of flow connectors F1, and a second switching area 147. FIG. Note that the number of job areas 140 and the number of flow connectors F1 are not limited to plural, and may be one.

<ジョブ領域140>
ジョブ領域140は、運用学習モデルM2のパイプラインPLでの処理のまとまりを示す。処理のまとまりとは、例えば、変換処理が行われる対象を取得する処理、変換処理、変換処理の結果を取得する処理、運用学習モデルM2による処理、結果情報IF3、特に精度情報を導出する処理などである。言い換えれば、処理のまとまりとは、ジョブである。本実施形態のパイプラインPLは、ジョブ領域140として、第1のジョブ領域141と、第2のジョブ領域142と、第3のジョブ領域143と、第4のジョブ領域144と、第5のジョブ領域145と、第6のジョブ領域146と、を含む。なお、ジョブ領域140のそれぞれは、レポジトリ表示領域RP1を含みうる。レポジトリ表示領域RP1は、ジョブ領域140のバージョン、更新日時等の情報を表示可能に構成される。これにより、ジョブ領域140のバージョンの一元管理が容易となる。
<Job area 140>
A job area 140 indicates a group of processes in the pipeline PL of the operational learning model M2. A group of processes includes, for example, a process of acquiring a target to be converted, a conversion process, a process of acquiring the result of the conversion process, a process by the operation learning model M2, a process of deriving the result information IF3, especially accuracy information, and the like. is. In other words, a group of processes is a job. In the pipeline PL of the present embodiment, the job areas 140 include a first job area 141, a second job area 142, a third job area 143, a fourth job area 144, and a fifth job area 144. area 145 and a sixth job area 146; Note that each of the job areas 140 can include a repository display area RP1. The repository display area RP1 is configured to be able to display information such as the version of the job area 140 and update date and time. This facilitates unified management of versions of the job area 140 .

<第1のジョブ領域141>
第1のジョブ領域141は、制御部23に入力される入力データDを受け付ける処理に対応する。当該入力データDは、ユーザが保有する運用データD3に限られず、外部データD0を含みうる。
<First job area 141>
A first job area 141 corresponds to a process of receiving input data D input to the control unit 23 . The input data D is not limited to the operational data D3 owned by the user, and may include external data D0.

<第2のジョブ領域142>
第2のジョブ領域142は、変換処理に対応する。特に、第2のジョブ領域142は、変換処理指定領域1322にて指定された変換処理に対応する。第2のジョブ領域142は、変換処理に含まれる複数の処理ごとに細分化されたジョブを含んでもよい。
<Second job area 142>
A second job area 142 corresponds to conversion processing. In particular, second job area 142 corresponds to the conversion process specified in conversion process specification area 1322 . The second job area 142 may include jobs subdivided by multiple processes included in the conversion process.

<第3のジョブ領域143>
第3のジョブ領域143は、運用学習モデルM2で実行される処理に対応する。第3のジョブ領域143には、運用学習モデルM2にて処理される変数の受け渡しをデータフローが表示されてもよい。
<Third Job Area 143>
A third job area 143 corresponds to the processing performed in the operational learning model M2. The third job area 143 may display a data flow for passing variables processed by the operational learning model M2.

<第4のジョブ領域144>
第4のジョブ領域144は、運用学習モデルM2から出力された結果を取得する処理に対応する。例えば、第4のジョブ領域144は、運用学習モデルM2から出力される出力y1と、当該出力y1に対応する説明変数x1を取得する処理に対応する。複数の説明変数x1が取得される場合、第4のジョブ領域144は、説明変数x1のそれぞれを取得する処理に対応する領域を含んでもよい。複数の出力y1が取得される場合も、第4のジョブ領域144は、出力y1のそれぞれを取得する処理に対応する領域を含んでもよい。
<Fourth Job Area 144>
A fourth job area 144 corresponds to the process of obtaining the results output from the operational learning model M2. For example, the fourth job area 144 corresponds to the process of obtaining the output y1 output from the operational learning model M2 and the explanatory variable x1 corresponding to the output y1. When multiple explanatory variables x1 are obtained, the fourth job area 144 may include areas corresponding to the process of obtaining each of the explanatory variables x1. Even if multiple outputs y1 are obtained, the fourth job area 144 may include areas corresponding to processes for obtaining each of the outputs y1.

<第5のジョブ領域145>
第5のジョブ領域145は、第4のジョブ領域144にて取得された情報に基づき、学習モデルM1による予測結果を導出する処理に対応する。例えば、第5のジョブ領域145は、結果情報IF3を導出する処理に対応する。第5のジョブ領域145には、導出された結果情報IF3の少なくとも一部が表示されてもよい。
<Fifth job area 145>
A fifth job area 145 corresponds to processing for deriving a prediction result by the learning model M1 based on the information acquired in the fourth job area 144 . For example, the fifth job area 145 corresponds to the process of deriving result information IF3. At least part of the derived result information IF3 may be displayed in the fifth job area 145 .

<第6のジョブ領域146>
第6のジョブ領域146は、第4のジョブ領域144にて取得された情報に基づき、モデル情報IF1を導出する処理に対応する。第6のジョブ領域146には、導出されたモデル情報IF1の少なくとも一部が表示されてもよい。導出されたモデル情報IF1は、第3のジョブ領域143に対応する処理、例えば、運用学習モデルM2の再学習に用いられる。
<Sixth job area 146>
A sixth job area 146 corresponds to processing for deriving model information IF1 based on the information acquired in the fourth job area 144 . At least part of the derived model information IF1 may be displayed in the sixth job area 146 . The derived model information IF1 is used for processing corresponding to the third job area 143, for example, re-learning of the operational learning model M2.

<フローコネクタF1>
フローコネクタF1は、ジョブ領域140間の情報の流れに対応する。情報の流れは、パラメータの送受信や処理の呼び出し等を含む。本実施形態では、フローコネクタF1が、第1のジョブ領域141と第2のジョブ領域142との間、第2のジョブ領域142と第3のジョブ領域143との間、第4のジョブ領域144と第5のジョブ領域145との間、第4のジョブ領域144と第6のジョブ領域146との間、第6のジョブ領域146と第3のジョブ領域143との間に、それぞれ配置されている。なお、ジョブ領域140間には、複数のフローコネクタF1が配置されていてもよい。例えば、第1のジョブ領域141と第2のジョブ領域142との間、及び第3のジョブ領域143と第4のジョブ領域144との間、及び第4のジョブ領域144と第5のジョブ領域145との間には、それぞれ2つのフローコネクタF1が配置されている。
<Flow connector F1>
Flow connector F 1 corresponds to the flow of information between job areas 140 . Information flow includes transmission and reception of parameters, calling of processes, and the like. In this embodiment, the flow connector F1 is located between the first job area 141 and the second job area 142, between the second job area 142 and the third job area 143, and between the fourth job area 144 and fifth job area 145, between fourth job area 144 and sixth job area 146, and between sixth job area 146 and third job area 143, respectively. there is A plurality of flow connectors F<b>1 may be arranged between the job areas 140 . For example, between the first job area 141 and the second job area 142, between the third job area 143 and the fourth job area 144, and between the fourth job area 144 and the fifth job area 145, two flow connectors F1 are arranged respectively.

<第2の切替領域147>
第2の切替領域147は、ユーザが第2の切替操作Op2を行うためのUIである。
<Second switching area 147>
The second switching area 147 is a UI for the user to perform the second switching operation Op2.

[アクティビティA103]
図5に戻り、アクティビティA102にて運用画面14が生成された後、処理がアクティビティA103に進み、受付部231は、ユーザからの運用画面14に対する操作を受け付ける。生成部233は、ユーザからの操作に応じた応答を生成する。例えば、受付部231がユーザからのジョブ領域140に対する操作を受け付けた場合、生成部233は、当該ジョブ領域140に対応する処理の内容を表示する。処理の内容は、例えば、所定のプログラミングコードによって表示される。当該操作に応じて、生成部233は、当該ジョブ領域140の入出力の時間変化に関する情報を表示してもよい。
[Activity A103]
Returning to FIG. 5, after the operation screen 14 is generated in activity A102, the process proceeds to activity A103, and the reception unit 231 receives an operation on the operation screen 14 from the user. The generator 233 generates a response according to the user's operation. For example, when the accepting unit 231 accepts an operation on the job area 140 from the user, the generating unit 233 displays the details of the process corresponding to the job area 140 . The content of the processing is displayed by, for example, a predetermined programming code. In response to the operation, the generation unit 233 may display information regarding the time change of the input/output of the job area 140 .

受付部231が第2の切替操作Op2を受け付けていない場合、受付部231は、アクティビティA103にて運用画面14に対する操作の受付を継続する。 If the accepting unit 231 has not accepted the second switching operation Op2, the accepting unit 231 continues accepting operations for the operation screen 14 in activity A103.

一方、受付部231が第2の切替操作Op2を受け付けた場合、処理がアクティビティA007に戻り、学習領域133に対する操作を受け付ける。この場合、学習画面13は、生成部233によって新たに生成されたものでも、前回生成されたものであってもよい。このようにして、学習画面13と運用画面14とがユーザの操作によって切替可能に構成されている。画面上に表示された視覚情報の操作によって学習画面13と運用画面14とが切替可能に構成されているため、ユーザは、学習画面13の再学習の結果をシームレスにデプロイ用の運用学習モデルM2に反映させることができる。 On the other hand, when the accepting unit 231 accepts the second switching operation Op2, the process returns to activity A007 to accept an operation on the learning area 133. FIG. In this case, the learning screen 13 may be newly generated by the generation unit 233 or may have been generated last time. In this manner, the learning screen 13 and the operation screen 14 are configured to be switchable by user's operation. Since the learning screen 13 and the operation screen 14 can be switched by operating the visual information displayed on the screen, the user can seamlessly apply the re-learning result of the learning screen 13 to the operation learning model M2 for deployment. can be reflected in

4.運用画面14の変形例
次に、運用画面14の変形例について説明する。図8は、運用画面14の変形例を示す図である。本実施形態の運用画面14は、複数のパイプラインPLを含む。生成部233は、異なる複数の入力データD、すなわち運用データD3を用いて学習モデルM1の再学習が行われる場合、当該運用データD3ごとに生成される学習モデルM1ごとにパイプラインPLを生成する。言い換えれば、異なる複数の入力データDを用いて学習モデルM1の再学習が行われる場合、パイプラインPLは、当該運用データD3ごとに生成される学習モデルM1ごとに表示部34に表示される。異なる複数の入力データDを用いて運用学習モデルM2の再学習が行われる場合、再学習された運用学習モデルM2は、運用データD3ごとに異なる特性を有する可能性がある。そのため、パイプラインPLが異なる複数の入力データDごとに生成される学習モデルM1ごとに表示部34に表示されることで、複数の運用学習モデルM2の保守管理の負担が軽減される。複数のパイプラインPLのそれぞれは、例えば、学習モデルM1の特徴量に応じてクラスタリングされる学習モデルM1ごとに表示されてもよい。本実施形態では、当該入力データDは運用データD3を含む。また、当該入力データDは、外部データD0を含んでもよい。当該学習モデルM1は、運用学習モデルM2ともいえる。本実施形態の運用画面14は、3つのパイプラインPLと、パイプライン指定領域151と、をさらに含む。なお、パイプラインPLの数はあくまで例示に過ぎず、例えば、10,20,30,40,50,60,70,80,90,100,200,300,400,500,600,700,800,900,1000,2000,3000,4000,5000,6000,7000,8000,9000,10000であっても、これらの数の間に含まれる任意の数であってもよい。無論、パイプラインPLの数は、ここに例示した数字より小さくても、大きくてもよい。
4. Modified Example of Operation Screen 14 Next, a modified example of the operation screen 14 will be described. FIG. 8 is a diagram showing a modification of the operation screen 14. As shown in FIG. The operation screen 14 of this embodiment includes a plurality of pipelines PL. When the learning model M1 is re-learned using a plurality of different input data D, that is, the operation data D3, the generation unit 233 generates a pipeline PL for each learning model M1 generated for each operation data D3. . In other words, when the learning model M1 is re-learned using a plurality of different input data D, the pipeline PL is displayed on the display unit 34 for each learning model M1 generated for each operational data D3. When the operational learning model M2 is re-learned using a plurality of different input data D, the re-learned operational learning model M2 may have different characteristics for each operational data D3. Therefore, by displaying on the display unit 34 for each learning model M1 generated for each of a plurality of input data D different pipelines PL, the burden of maintenance management of a plurality of operation learning models M2 is reduced. Each of the plurality of pipelines PL may be displayed for each learning model M1 clustered according to the feature amount of the learning model M1, for example. In this embodiment, the input data D includes operational data D3. Also, the input data D may include external data D0. The learning model M1 can also be said to be an operational learning model M2. The operation screen 14 of this embodiment further includes three pipelines PL and a pipeline designation area 151 . Note that the number of pipelines PL is merely an example, for example, 10, 20, 30, 40, 50, 60, 70, 80, 90, 100, 200, 300, 400, 500, 600, 700, 800, 900, 1000, 2000, 3000, 4000, 5000, 6000, 7000, 8000, 9000, 10000, or any number contained between these numbers. Of course, the number of pipelines PL may be smaller or larger than the numbers exemplified here.

パイプライン指定領域151は、ユーザが複数のパイプラインPLのうちの少なくとも1つを指定可能に構成されていてもよい。パイプライン指定領域151にて指定したパイプラインPLは、運用画面14内にて他のパイプラインPLよりも優先的に表示される。これにより、ユーザが所望のパイプラインPLの内容を確認しやすくなる。 The pipeline designation area 151 may be configured so that the user can designate at least one of a plurality of pipelines PL. The pipeline PL designated in the pipeline designation area 151 is displayed preferentially over other pipelines PL in the operation screen 14 . This makes it easier for the user to confirm the contents of the desired pipeline PL.

運用画面14には、複数のパイプラインPLの少なくとも一部が、それぞれ一覧可能に表示されている。上記パイプライン指定領域151でのパイプラインPLの指定は、運用画面14にて表示されているパイプラインPLに対する操作によって行われてもよい。これにより、ユーザは、パイプラインPLの指定を直感的に行うことができる。複数のパイプラインPLは、運用画面14にて一覧可能に表示されてもよい。これにより、ユーザは、複数のパイプラインPLの内容を比較しやすくなる。また、複数のパイプラインPLは、互いに独立して表示されていても、互いに関連性をもって表示されてもよい。当該関連性は、例えば、フローコネクタF1の接続関係によって示される。複数のパイプラインPLのそれぞれのジョブ領域140は、その内容ごとに整列していてもよい。これにより、複数のパイプラインPLの比較がさらに容易となる。 At least some of the plurality of pipelines PL are displayed on the operation screen 14 so as to be viewable. Designation of the pipeline PL in the pipeline designation area 151 may be performed by operating the pipeline PL displayed on the operation screen 14 . This allows the user to intuitively specify the pipeline PL. A plurality of pipelines PL may be displayed on the operation screen 14 so as to be viewable. This makes it easier for the user to compare the contents of multiple pipelines PL. Also, the plurality of pipelines PL may be displayed independently of each other or may be displayed in association with each other. The relevance is indicated, for example, by the connection relationship of the flow connector F1. The job areas 140 of each of the multiple pipelines PL may be arranged according to their contents. This makes it easier to compare multiple pipelines PL.

5.その他
前述の実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
5. Others Regarding the information processing system 1 according to the above-described embodiment, the following aspects may be adopted.

運用画面14にて表示されるパイプラインPLは、運用学習モデルM2のデータフローを示すものに限られず、学習モデルM1のデータフローを示すものでもよい。 The pipeline PL displayed on the operation screen 14 is not limited to showing the data flow of the operational learning model M2, and may show the data flow of the learning model M1.

第1の入力データD1及び第2の入力データD2は、それぞれ外部データD0としてデータベースDB1に記憶されてもよい。これらの外部データD0は、所定の条件のもと、他のユーザに提供可能であってもよい。 The first input data D1 and the second input data D2 may each be stored in the database DB1 as the external data D0. These external data D0 may be provided to other users under predetermined conditions.

制御部23は、表示部34に、第1の入力データD1に対して行われた変換処理の履歴、いわゆる変換処理のバージョン、を表示させてもよい。これにより、変換処理と精度情報との関係性の類推が容易となる。また、制御部23は、変換処理のバージョンの管理を行ってもよい。 The control unit 23 may cause the display unit 34 to display the history of the conversion process performed on the first input data D1, ie, the version of the conversion process. This makes it easy to analogize the relationship between the conversion process and the accuracy information. Also, the control unit 23 may manage versions of conversion processing.

次に記載の各態様で提供されてもよい。 It may be provided in each aspect described below.

(2)前記情報処理システムにおいて、前記入力領域は、複数の入力内部領域と、前記入力内部領域の間を接続する第1の内部コネクタと、を含み、前記入力内部領域のそれぞれは、前記入力データに対する操作の単位を示す、もの。 (2) In the information processing system, the input area includes a plurality of input internal areas and a first internal connector connecting between the input internal areas, each of the input internal areas A thing that indicates a unit of operation on data.

このような構成によれば、ユーザは、第1の内部コネクタによる接続関係から、入力データの入力の操作の関連性を把握することができる。したがって、入力データの操作の際にユーザに求められるデータサイエンスに関する知見の水準を、従来技術に比して下げることができる。 According to such a configuration, the user can grasp the relevance of the operation of inputting the input data from the connection relationship by the first internal connector. Therefore, the level of knowledge about data science required of the user when manipulating input data can be lowered compared to the prior art.

(3)前記情報処理システムにおいて、前記入力内部領域の1つは、少なくともユーザからの前記入力データの入力を受付可能な受付領域を含む、もの。 (3) In the information processing system, one of the input internal areas includes at least a receiving area capable of receiving input of the input data from the user.

このような構成によれば、ユーザが入力した入力データDに対する操作及び学習条件の設定の手順が、第1の内部コネクタの接続関係及び第1の外部コネクタの接続関係に従って案内される。したがって、ユーザにとっての利便性が向上する。 According to such a configuration, the procedure for setting the operation and learning conditions for the input data D input by the user is guided according to the connection relationship of the first internal connector and the connection relationship of the first external connector. Therefore, convenience for the user is improved.

(4)前記情報処理システムにおいて、前記学習領域は、複数の学習内部領域と、前記学習内部領域の間を接続する第2の内部コネクタと、を含み、前記学習内部領域のそれぞれは、前記学習条件の設定の単位を示す、もの。 (4) In the information processing system, the learning area includes a plurality of internal learning areas and a second internal connector connecting between the internal learning areas, and each of the internal learning areas includes the learning A thing that indicates the unit of condition setting.

このような構成によれば、煩雑な学習条件の設定の手順が、第2の内部コネクタによって表現される。したがって、学習条件の設定の際にユーザに求められるデータサイエンスに関する知見の水準を、さらに下げることができる。 According to such a configuration, a complicated learning condition setting procedure is represented by the second internal connector. Therefore, it is possible to further lower the level of knowledge regarding data science required of the user when setting the learning conditions.

(5)前記情報処理システムにおいて、前記学習内部領域の1つは、少なくとも前記学習モデルへの前記入力データの入力態様を指定可能な指定領域を含む、もの。 (5) In the information processing system, one of the internal learning areas includes at least a designated area capable of designating an input mode of the input data to the learning model.

このような構成によれば、学習モデルの特性に応じてユーザは入力データの入力態様を指定することができるため、さらなる利便性の向上を図ることができる。 According to such a configuration, the user can specify the input mode of the input data according to the characteristics of the learning model, thereby further improving convenience.

(6)前記情報処理システムにおいて、前記学習画面は、前記入力データを用いた前記学習モデルの出力に関する結果情報を表す結果領域と、前記学習領域と前記結果領域とを対応付ける第2の外部コネクタと、を含む、もの。 (6) In the information processing system, the learning screen includes a result area representing result information regarding the output of the learning model using the input data, and a second external connector that associates the learning area and the result area. , including.

このような構成によれば、入力領域、学習領域、及び結果領域の関係性が、第1の外部コネクタと第2の外部コネクタとによって表現される。したがって、ユーザは、入力データと、入力データを用いた学習モデルの学習条件と、学習条件に基づく学習モデルの出力結果との間の一連の関連性を、これらの外部コネクタから把握しやすくなる。 According to such a configuration, the relationship between the input area, the learning area, and the result area is expressed by the first external connector and the second external connector. Therefore, from these external connectors, the user can easily grasp a series of relationships among the input data, the learning conditions of the learning model using the input data, and the output results of the learning model based on the learning conditions.

(7)前記情報処理システムにおいて、さらに、第2の生成ステップでは、切替領域に対するユーザの切替操作に応じて運用画面を生成し、ここで、前記運用画面には、前記学習モデルのデータフローを示すパイプラインが表示される、もの。 (7) In the information processing system, further, in the second generation step, an operation screen is generated in response to a user's switching operation on the switching area, wherein the operation screen includes the data flow of the learning model. The one that shows the pipeline is displayed.

このような構成によれば、ユーザが切替操作を行うだけで、学習モデルのデータフローを確認することができる。したがって、学習モデルのブラックボックス化が抑制される。 According to such a configuration, the user can confirm the data flow of the learning model simply by performing the switching operation. Therefore, black-boxing of the learning model is suppressed.

(8)前記情報処理システムにおいて、異なる複数の前記入力データを用いて前記学習モデルの再学習が行われる場合、前記パイプラインは、当該入力データごとに生成される前記学習モデルごとに表示される、もの。 (8) In the information processing system, when the learning model is re-learned using a plurality of different input data, the pipeline is displayed for each learning model generated for each input data. ,thing.

このような構成によれば、異なる複数の入力データを用いて学習モデルの再学習が行われる場合において、再学習された学習モデルが、入力データごとに異なる特性を有するとしても、パイプラインが異なる複数の入力データごとに生成される学習モデルごとに表示部に表示される。そのため、複数の学習モデルの保守管理の負担が軽減される。 According to such a configuration, when the learning model is re-trained using a plurality of different input data, even if the re-learned learning model has different characteristics for each input data, the pipeline is different. Each learning model generated for each of a plurality of pieces of input data is displayed on the display unit. Therefore, the burden of maintenance management of a plurality of learning models is reduced.

(9)前記情報処理システムにおいて、前記パイプラインは、前記学習モデルの特徴量に応じてクラスタリングされる前記学習モデルごとに表示される、もの。 (9) In the information processing system, the pipeline is displayed for each of the learning models clustered according to the feature amount of the learning model.

このような構成によれば、類似する特性をもつ学習モデルのパイプラインがまとめて表示されるため、学習モデルの数が増えた際の学習モデルの保守管理の負担が軽減される。 According to such a configuration, since pipelines of learning models having similar characteristics are collectively displayed, the burden of maintenance and management of learning models is reduced when the number of learning models increases.

(10)情報処理方法であって、前記情報処理システムの各ステップを含む、方法。 (10) An information processing method, comprising steps of the information processing system.

(11)情報処理プログラムであって、コンピュータに、前記情報処理システムの各ステップを実行させる、もの。
もちろん、この限りではない。
(11) An information processing program that causes a computer to execute each step of the information processing system.
Of course, this is not the only case.

さらに、以下のような観点にも留意されたい。 Furthermore, the following points should also be noted.

深層学習(Deep Learning、DL)をはじめとする機械学習(Machine Learning、ML)の技術を様々な局面で利用しようとする動きが加速し、一種のブームとも言える状況が生まれている。しかしこのような盛り上がりに反し、ML導入のプロジェクトの85%が失敗し、MLやAI(Artificial Intelligence、人工知能)技術を活用できている企業は10%、情報系企業ですら17%にとどまると言われる。 The movement to use deep learning (DL) and other machine learning (machine learning, ML) technologies in various situations is accelerating, creating a situation that can be called a kind of boom. However, contrary to this excitement, 85% of ML introduction projects have failed, 10% of companies are able to utilize ML and AI (Artificial Intelligence) technology, and only 17% of information companies. It is said.

これには様々な原因がある。第1にMLやAIがいかなる問題に対して有効かの理解が簡単ではないこと、第2にMLを使うためにはどういうデータを用意すればよいのか、どのようにデータの加工と前処理をすればよいのかが経験と勘に依存すること、第3にデータを大量に準備することが容易ではないこと、第4にMLやAIのモデルをどう構築したらよいのかの理解が簡単ではなく、しかも経験と勘に依存すること、第5にMLの一手法であるDLからなぜ欲する出力を得られるのかの理解が困難なこと、第6に以上のように理解が進まない結果として満足できる性能を得ることができないことなどが挙げられる。 There are various causes for this. First, it is not easy to understand what problems ML and AI are effective against. Second, what kind of data should be prepared to use ML, and how to process and preprocess data. What to do depends on experience and intuition. Third, it is not easy to prepare a large amount of data. Fourth, it is not easy to understand how to build an ML or AI model. Moreover, it depends on experience and intuition. Fifth, it is difficult to understand why the desired output can be obtained from DL, which is a method of ML. and the fact that it is not possible to obtain

上述のとおり、MLを成功裏に活用するためには様々な障害が存在する反面、インターネット上には多くのMLサービスやAIサービスが存在し、どれを使えばよいのか分からないというカオス的状況にもある。 As mentioned above, there are various obstacles to the successful utilization of ML, but on the other hand, there are many ML services and AI services on the Internet, and it is a chaotic situation where you do not know which one to use. There is also

その上、上記のMLサービス、AIサービスを使いこなすためにはたくさんのパラメータを入力しなければならず、パラメータの意味の理解も難しく、MLやAIの専門家でなければ使いこなせないという現実も存在する。いわば、MLサービスやAIサービスは専門家以外にも使える民主化されたサービスとはなっていなかった。 In addition, in order to use the above ML and AI services, many parameters must be entered, and it is difficult to understand the meaning of the parameters, and there is a reality that only ML and AI experts can use them. . In other words, ML services and AI services were not democratized services that could be used by non-specialists.

前述の状況を鑑み、専門的な知識を有していなくても使いこなすことができ、入力データを準備さえすれば3ステップでMLサービスを使うことができ、得られた結果に対する解析を提供し、さらには予測も行うことのできる技術を提供することにより、誰でもMLサービスを利用できる環境を創出することが本発明の目的である。これによりMLサービスが民主化される。 In view of the above-mentioned situation, it is possible to use ML services without specialized knowledge, and if you prepare input data, you can use ML services in 3 steps, and provide analysis of the obtained results, Furthermore, it is an object of the present invention to create an environment in which anyone can use ML services by providing a technique that can also perform prediction. This democratizes ML services.

上記課題を解決するための技術的思想は、インターネット上に存在する多くのML(以下AutoMLと呼ぶ)サービスへ接続するためのラッピング・インターフェースシステムを提供することである。これにより、データの収集、前処理、アップロードなどのデータ準備(ステップ1)、モデル構築と複数のMLの並行的実行(ステップ2)、各MLの性能比較と実業務への導入(ステップ3)の3ステップでMLの導入が可能となる。 A technical idea for solving the above problems is to provide a wrapping interface system for connecting to many ML (hereinafter referred to as AutoML) services existing on the Internet. As a result, data preparation such as data collection, preprocessing, and uploading (step 1), model construction and parallel execution of multiple MLs (step 2), performance comparison of each ML and introduction to actual work (step 3) It is possible to introduce ML in the following three steps.

そのためにまずアカウント設定やパラメータ入力手順等を一元化し、次に各AutoMLへとフォーマット変換を施す。これにより10~15ステップが必要であったアカウント作成を3ステップで行うことが可能となる。 For this purpose, the account setting, parameter input procedure, etc. are first unified, and then format conversion is applied to each AutoML. This makes it possible to create an account in 3 steps, which used to take 10 to 15 steps.

次に、社内外のデータを収集する。このために必要な社内外データへのアクセスポイントに対して自動的に、あるいはユーザーの介入と補助を得ながら接続が行なわれ、データが収集される。 Next, collect internal and external data. The necessary access points to internal and external data for this are connected automatically or with user intervention and assistance, and the data is collected.

続いて、入力データの加工を行う。以下に限られないが、これにはデータのクレンジングとして日付データなどの形式の一元的形式への変換、欠損の多いデータ項目の処理などを行い、原データから統計的処理を含む前処理を適用して目的に適したデータに変換すること、クエリを使用してデータ抽出やデータ結合などを行うことなどが含まれる。 Next, the input data is processed. This includes, but is not limited to, data cleansing such as conversion to a unified format such as date data, processing data items with many missing points, and applying preprocessing including statistical processing from the original data. and transforming it into data suitable for the purpose, and using queries to perform data extraction, data merging, etc.

このとき、必要に応じて加工後のデータを表示して確認と修正を行ってもよい。 At this time, if necessary, the processed data may be displayed for confirmation and correction.

次に、MLモデルの準備を行う。インターネット上に存在する各種MLサービスの利用に限られず、GUI(Graphical User Interface)ベースによってプログラミングを行わずに独自モデルを構築する方法、インターネット上に存在する各種MLサービスの修正を行って独自モデルを構築する方法、及び既に構築されているがインターネット上には公開されていないMLモデルを本発明システムへインポートを行う方法等によって行われる。 Next, prepare the ML model. It is not limited to the use of various ML services that exist on the Internet, but also a method of constructing an original model without programming based on a GUI (Graphical User Interface), and modifying various ML services that exist on the Internet to create an original model. This is done by a method of constructing and a method of importing an ML model that has already been constructed but is not open to the public on the Internet into the system of the present invention.

さらには、プログラミングすることなく、MLや統計分析を可能にする機能も提供される。加えて、どのようなテンプレートでモデル構築を行えば精度の高いモデルが構築できるかについて、入力データからリコメンドする機能も提供される。 It also provides functionality that enables ML and statistical analysis without programming. In addition, a function is also provided to recommend from the input data what kind of template should be used to build a model with high accuracy.

MLに入力されるデータを学習データと予測データに分割し、学習データによって学習したMLに予測データを入力してもよい。予測データはML性能比較等のためにこれ以降使われる。 The data input to the ML may be divided into learning data and prediction data, and the prediction data may be input to the ML that has been learned using the learning data. The prediction data is used hereafter for ML performance comparisons, etc.

入力データとMLモデルの準備が終了したら、学習データを用いて学習が開始される。
このとき複数のMLを並行的に実行させてもよい。
Once the input data and the ML model have been prepared, training is started using the learning data.
At this time, multiple MLs may be executed in parallel.

学習が終わったら、予測データが自動的あるいはユーザーの指示によって各MLサービスに投入され、結果を得る。このとき複数のAutoMLが並行的に実行されていれば、即座に性能比較ができる。 After training, predictive data is injected into each ML service automatically or by user's instruction to obtain results. If multiple AutoMLs are executed in parallel at this time, the performance can be compared immediately.

各AutoMLサービスの結果を表示する。これにはグラフィカルな可視化を含み、各MLサービスの予測精度レベル(決定係数)、項目の寄与度の比較などが表示される。 View the results for each AutoML service. This includes graphical visualizations showing the level of prediction accuracy (coefficient of determination) for each ML service, comparison of item contributions, etc.

上記のデータ収集~結果の表示と比較までを繰り返し、実業務に投入が可能だとユーザーによって判断されたら、運用が開始される。 The above data collection, display and comparison of results are repeated, and when the user decides that it can be put into actual work, the operation is started.

運用において、用意されたAPI(Application Program Interface)によってアプリケーションプログラムから本システムへ問い合わせを行うことによって結果がアプリケーションプログラムによって活用すること、あるいは本システムから直接結果を表示することも本発明の範囲である。 In operation, it is within the scope of the present invention that the results are utilized by the application program by inquiring from the application program to this system using a prepared API (Application Program Interface), or that the results are displayed directly from this system. .

運用の自動化のためにKubeflowを含むMLプラットフォームを利用しても良い。 ML platforms including Kubeflow may be used for automation of operations.

上記一連の操作をパイプライン化し、操作の単純化を図っても良い。パイプライン化することにより自由度は下がるが全体の見通しが良くなり、専門家でなくても扱うことが可能となる。もし自由度を上げる必要があるときには、詳細画面を開く等によって専門的な項目設定を行っても良い。 The above series of operations may be pipelined to simplify the operations. Pipelining reduces the degree of freedom, but improves the overall outlook and allows non-experts to handle it. If it is necessary to increase the degree of freedom, specialized item settings may be performed by opening a detailed screen or the like.

さらにはパイプラインの流れに沿って各種変更や操作履歴の記録と閲覧が可能となり、MLサービスやモデル選択の根拠を示すことが可能となる。 Furthermore, it is possible to record and view various changes and operation histories along the flow of the pipeline, and it is possible to show the grounds for selecting ML services and models.

採用すべきMLモデルとそれに必要なデータ前処理方法が決定された後に、実業務に導入される。例えば、MLの出力として売上予測が欲しい場合、直接本発明システムによって表示される画面を見ても良いし、必要に応じて本発明システムが提供するAPIを介してアプリケーションプログラムから情報提供のリクエストが出され、それによってアプリケーションプログラムの画面に表示されても良い。 After the ML model to be adopted and the data preprocessing method required for it are decided, it is introduced into the actual business. For example, if you want a sales forecast as an ML output, you can directly see the screen displayed by the system of the present invention, or if necessary, request information provision from the application program via the API provided by the system of the present invention. may be issued and thereby displayed on the screen of the application program.

そこで、上記課題を解決するために、第1の態様に係る情報処理方法は、アカウント設定、パラメータ入力手順設定のうち少なくともいずれかを含む初期設定作業を一元化する第1のステップと、インターネット上に存在し得る自動機械学習サービスへ接続するためのフォーマット変換を施す第2のステップと、社内外のデータが収集される第3のステップと、前記収集されたデータを加工する第4のステップと、使用されるべき自動機械学習サービスの準備を行う第5のステップと、前記第4のステップにおいて加工されたデータを学習データと予測データとに分割し、前記学習データを前記第5のステップにおいて準備が行われた自動機械学習サービスによって学習させる第6のステップとを具備することを特徴とする。 Therefore, in order to solve the above problems, an information processing method according to a first aspect includes a first step of unifying initial setting work including at least one of account setting and parameter input procedure setting; a second step of applying a format conversion to connect to possible automated machine learning services; a third step in which internal and external data is collected; a fourth step of processing said collected data; a fifth step of preparing an automated machine learning service to be used; splitting the data processed in said fourth step into learning data and prediction data; preparing said learning data in said fifth step; and a sixth step of learning by an automatic machine learning service performed by.

また、上記課題を解決するために、第2の態様に係る情報処理装置は、アカウント設定、パラメータ入力手順設定のうち少なくともいずれかを含む初期設定作業を一元化することのできる一元化部と、インターネット上に存在し得る自動機械学習サービスへ接続するためのフォーマット変換を施すフォーマット変換部と、社内外のデータが収集されるデータ収集部と、前記収集されたデータを加工するデータ加工部と、使用されるべき自動機械学習サービスの準備を行う準備部と、前記データ加工部によって加工されたデータを学習データと予測データとに分割し、前記学習データを前記準備部によって準備が行われた自動機械学習サービスによって学習させる学習部とを具備することを特徴とする。 In order to solve the above problems, an information processing apparatus according to a second aspect includes a centralizing unit capable of centralizing initial setting work including at least one of account setting and parameter input procedure setting; A format conversion unit that performs format conversion for connecting to an automatic machine learning service that can exist in the a preparation unit that prepares for an automatic machine learning service to be performed, the data processed by the data processing unit is divided into learning data and prediction data, and the learning data is prepared by the preparation unit for automatic machine learning and a learning unit for learning by the service.

上記2つの態様によれば、深層学習をはじめとする機械学習技術の専門家でなくても、学習データを準備さえすれば学習モデルの選択及び/又は構築ができ、複数の学習モデルの結果から性能の比較ができ、複数の学習モデルから最適なものを選択でき、それを実業務に投入し、投入後の運用をサポートすることができることとなる。 According to the above two aspects, even if you are not an expert in machine learning technology such as deep learning, you can select and / or build a learning model as long as you prepare learning data, and from the results of a plurality of learning models Performance can be compared, the optimal model can be selected from multiple learning models, it can be applied to actual business operations, and operation after application can be supported.

第3の態様として、第2の態様において、前記収集され準備された入力データをインターネット上に存在する多くの自動機械学習サービスに応じた変換を行うようにしてもよい。この態様によれば、機械学習サービス毎に異なる入力データを準備するプロセスを省くことが可能となる。なお、この第3の態様は第1の態様に対して重畳的に用いることもできる。 As a third aspect, in the second aspect, the collected and prepared input data may be converted according to many automatic machine learning services existing on the Internet. According to this aspect, it is possible to omit the process of preparing different input data for each machine learning service. It should be noted that this third mode can also be used in a superimposed manner with respect to the first mode.

第4の態様として、第2の態様において、入力データの単純な形式変換、欠損データもしくは重複・不要データの処理を含むデータクレンジング、原データからの特徴量の抽出、統計的処理を含む前処理を適用して目的に適したデータへの変換、クエリを使用したデータ抽出もしくはデータ結合を含むデータ変換、のうちの少なくともいずれかを実行するようにしてもよい。この態様によれば、入力データの単純な形式変換、欠損データもしくは重複・不要データの処理を含むデータクレンジング、原データからの特徴量の抽出、統計的処理を含む前処理を適用して目的に適したデータへの変換、クエリを使用したデータ抽出もしくはデータ結合を含むデータ変換、を簡単な指示を与えることにより実行することが可能となる。なお、この第4の態様は第1の態様に対して重畳的に用いることもできる。 As a fourth aspect, in the second aspect, simple format conversion of input data, data cleansing including processing of missing data or redundant/unnecessary data, extraction of feature values from original data, preprocessing including statistical processing may be applied to perform data transformations including data extraction and/or data merging using queries and/or transformations into data suitable for the purpose. According to this aspect, simple format conversion of input data, data cleansing including processing of missing data or redundant/unnecessary data, extraction of feature values from original data, preprocessing including statistical processing are applied to achieve the purpose Data conversion, including conversion to suitable data, data extraction using queries, or data merging, can be performed by giving simple instructions. It should be noted that this fourth aspect can also be used in a superimposed manner with respect to the first aspect.

第5の態様として、第2の態様において、インターネット上に存在する複数の機械学習サービスあるいは機械学習モデルを一覧できる一覧部と、前記一覧部にて一覧される複数の機械学習サービスあるいは機械学習モデルのうちのいずれかへの接続が選択される選択部と、前記選択部によって選択されたことにより一括して複数の機械学習サービスあるいは機械学習モデルへのデータ投入、平行的実行、結果の取得及び比較、のうちの少なくともいずれかを実行する実行部とをさらに備えるようにしてもよい。なお、この第5の態様は第1の態様に対して重畳的に用いることもできる。 As a fifth aspect, in the second aspect, a list part that can list a plurality of machine learning services or machine learning models existing on the Internet, and a plurality of machine learning services or machine learning models listed in the list part A selection unit that selects connection to one of the above, and data input to a plurality of machine learning services or machine learning models collectively by being selected by the selection unit, parallel execution, acquisition of results, and and an execution unit that executes at least one of the comparison. It should be noted that this fifth mode can also be used in a superimposed manner with respect to the first mode.

第6の態様として、第2の態様において、前記学習部及び/もしくは前記準備部は、グラフィカル・ユーザー・インターフェース手段によって行われるようにしてもよい。この態様によれば、上記の機械学習サービスを選択することに加え、グラフィカル・ユーザー・インターフェースをベースにした手法でユーザー独自の機械学習モデルを構築することができ、及び/又は、公開情報として存在する機械学習モデルをインポートすることができる。なお、この第6の態様は第1の態様に対して重畳的に用いることもできる。 As a sixth aspect, in the second aspect, the learning section and/or the preparation section may be performed by graphical user interface means. According to this aspect, in addition to selecting the above machine learning service, the user can build his own machine learning model using a graphical user interface-based technique and/or exists as public information. You can import a machine learning model that It should be noted that this sixth aspect can also be used in a superimposed manner with respect to the first aspect.

第7の態様として、第2の態様において、前記学習部において前記加工されたデータが前記学習データと前記予測データとに分割されるにおいては、機械学習への入力データを学習用データと性能比較及び/又は予測データに分割されるようにしてもよい。この態様によれば、前記機械学習への入力データを学習用データと性能比較及び/又は予測データに分割して利用することができる。なお、この第7の態様は第1の態様に対して重畳的に用いることもできる。 As a seventh aspect, in the second aspect, when the processed data is divided into the learning data and the prediction data in the learning unit, the input data to machine learning is compared in performance with the learning data. and/or may be divided into prediction data. According to this aspect, input data to the machine learning can be divided into learning data and performance comparison and/or prediction data for use. It should be noted that this seventh mode can also be used in a superimposed manner with respect to the first mode.

第8の態様として、第2の態様において、同一入力データによって実行した複数の機械学習サービスあるいは機械学習モデルの性能を比較するための指標を提供する指標提供部をさらに備えるようにしてもよい。なお、この第8の態様は第1の態様に対して重畳的に用いることもできる。 As an eighth aspect, the second aspect may further include an index providing unit that provides an index for comparing the performance of a plurality of machine learning services or machine learning models executed with the same input data. It should be noted that this eighth mode can also be used in a superimposed manner with respect to the first mode.

第9の態様として、第8の態様において、前記指標として、決定係数、平均絶対誤差、平均二乗偏差、項目寄与度、モデルの予測と実際の比較、残差ヒストグラム、のうちの少なくともいずれかを含む機械学習サービスと機械学習モデルの性能の比較を行うための指標が提示されるようにしてもよい。なお、この第9の態様は第1の態様に対して第8の態様が重畳された態様に対して重畳的に用いることもできる。 As a ninth aspect, in the eighth aspect, at least one of the coefficient of determination, mean absolute error, mean square deviation, item contribution, model prediction and actual comparison, residual histogram, as the indicator A metric may be presented to compare the performance of the machine learning service and the machine learning model. It should be noted that the ninth mode can also be used in a superimposed manner with respect to the mode in which the eighth mode is superimposed on the first mode.

第10の態様として、第2の態様において、複数の機械学習サービスと前記複数のうちのそれぞれの機械学習モデルの結果とから選択する選択部をさらに備えるようにしてもよい。この態様によれば、複数の機械学習サービスと前記複数のうちのそれぞれの機械学習モデルの結果とから最適なものが選択されて実業務への投入を行うことができる。なお、この第10の態様は第1の態様に対して重畳的に用いることもできる。 As a tenth aspect, the second aspect may further include a selection unit that selects from a plurality of machine learning services and the result of each machine learning model out of the plurality. According to this aspect, the optimum one can be selected from a plurality of machine learning services and the results of the respective machine learning models out of the plurality and applied to actual business. It should be noted that this tenth aspect can also be used in a superimposed manner with respect to the first aspect.

第11の態様として、第2の態様において、前記機械学習サービスと前記機械学習モデルの精度の維持及び/もしくは管理とを行うことのできる維持管理部をさらに備えるようにしてもよい。この態様によれば、実投入後に前記機械学習サービスと前記機械学習モデルの精度の維持及び/もしくは管理とを行うことのできる機能が提供される。
なお、この第11の態様は第1の態様に対して重畳的に用いることもできる。
As an eleventh aspect, in the second aspect, a maintenance and management unit capable of maintaining and/or managing the accuracy of the machine learning service and the machine learning model may be further provided. According to this aspect, a function is provided that can maintain and/or manage the accuracy of the machine learning service and the machine learning model after actual launch.
It should be noted that the eleventh aspect can also be used in a superimposed manner with respect to the first aspect.

第12の態様として、第2の態様において、前記データの収集・準備、複数の機械学習サービスと機械学習モデルの平行的実行、機械学習サービスと機械学習モデルの性能比較、実業務への投入の操作をパイプライン化するパイプライン部をさらに備えるようにしてもよい。この態様によれば、上記データの収集・準備、複数の機械学習サービスと機械学習モデルの平行的実行、機械学習サービスと機械学習モデルの性能比較、実業務への投入の操作がパイプライン化され、全体の見通しをよくすることができる。なお、この第12の態様は第1の態様に対して重畳的に用いることもできる。 As a twelfth aspect, in the second aspect, collection and preparation of the data, parallel execution of multiple machine learning services and machine learning models, performance comparison of machine learning services and machine learning models, input to actual business A pipeline section that pipelines the operations may be further provided. According to this aspect, the operation of collecting and preparing the above data, parallel execution of a plurality of machine learning services and machine learning models, performance comparison of machine learning services and machine learning models, and input to actual work is pipelined. , can improve the overall outlook. The twelfth mode can also be used in a superimposed manner with respect to the first mode.

第13の態様として、第12の態様において、前記パイプライン化された処理の様々な中間段階で、必要に応じてユーザーが介入することを許容するユーザー介入部をさらに具備するようにしてもよい。この態様によれば、パイプライン化された処理の様々な中間段階で、必要に応じてユーザーが介入して詳細な設定や操作が行われてもよいこととなる。なお、この第13の態様は第1の態様に対して第12の態様が重畳された態様に対して重畳的に用いることもできる。 As a thirteenth aspect, the twelfth aspect may further include a user intervention unit that allows a user to intervene as necessary at various intermediate stages of the pipelined processing. . According to this aspect, the user may intervene as necessary to perform detailed settings and operations at various intermediate stages of the pipelined processing. The thirteenth mode can also be used in a superimposed manner with respect to the mode in which the twelfth mode is superimposed on the first mode.

第14の態様として、第2の態様において、前記機械学習サービスあるいは前記機械学習モデルの処理結果を得るために、アプリケーションプログラムからアプリケーションプログラムインターフェースを介して前記データの要求が行われるデータ要求部をさらに具備するようにしてもよい。この態様によれば、実業務へ投入された機械学習サービスあるいは機械学習モデルの処理結果を得るために、アプリケーションプログラムからアプリケーションプログラムインターフェースを介して本発明システムに対してデータの要求が行われ、それぞれのアプリケーションプログラムで表示を含む処理がされてもよいこととなる。なお、この第14の態様は第1の態様に対して重畳的に用いることもできる。 As a fourteenth aspect, in the second aspect, further comprising a data requesting unit for requesting the data from an application program via an application program interface in order to obtain the processing result of the machine learning service or the machine learning model It may be provided. According to this aspect, in order to obtain the processing results of a machine learning service or a machine learning model that has been put into actual business, an application program requests data from the system of the present invention via the application program interface. processing including display may be performed by the application program. It should be noted that the fourteenth aspect can also be used in a superimposed manner with respect to the first aspect.

第15の態様として、第2の態様において、前記一元化部、前記フォーマット変換部、前記データ収集部、前記データ加工部、前記準備部、前記学習部、のうちの少なくともいずれかにおける画面がデータの収集と準備に係る画面、機械学習モデルの選択・構築・実行に係る画面、各学習モデルの性能比較に係る画面、機械学習モデルの選択を決定して実業務への導入する画面、の少なくともいずれかを含む画面遷移を有するようにしてもよい。この態様によれば、データの準備とアップロードから複数のML間の性能の比較と実業務への導入までの各ステップにおいて、複数の画面を用いてユーザーと情報がやり取りされるが、これらの画面がデータの収集と準備(前処理、アップロード等)に関わる画面、機械学習モデルの選択・構築・実行に関わる画面、(モデル構築、MLの実行)、各学習モデルの性能比較に関する画面、そして機械学習モデルの選択を決定して実業務への導入する画面を含む画面遷移を有するから、画面遷移定義において学習プロセスが設計できることとなる。なお、この第15の態様は第1の態様に対して重畳的に用いることもできる。 As a fifteenth aspect, in the second aspect, the screen in at least one of the unification unit, the format conversion unit, the data collection unit, the data processing unit, the preparation unit, and the learning unit is the data At least one of the screens related to collection and preparation, the screen related to selection/construction/execution of machine learning models, the screen related to performance comparison of each learning model, and the screen to decide the selection of machine learning models and introduce them to actual work. You may have a screen transition including. According to this aspect, information is exchanged with the user using a plurality of screens in each step from preparation and upload of data to comparison of performance between a plurality of MLs and introduction to actual work. is a screen related to data collection and preparation (preprocessing, upload, etc.), a screen related to selection, construction, and execution of machine learning models (model construction, ML execution), a screen related to performance comparison of each learning model, and a machine Since it has screen transitions including screens for determining the selection of learning models and introducing them to actual work, the learning process can be designed in the screen transition definition. The fifteenth aspect can also be used in a superimposed manner with respect to the first aspect.

また、上記課題を解決するために、第16の態様に係るプログラムは、コンピュータを、専門家の介在無しに、収集された学習データをそれぞれの機械学習サービスや機械学習モデルに合致するように変換するデータ加工・変換部と、欠損データや重複・不要データの処理を含むデータクレンジング部と、原データからの特徴量の抽出を行う特徴量抽出部と、統計的処理を含む前処理を適用して目的に適したデータへの変換やクエリを使用したデータ抽出やデータ結合を含むデータ変換を行うデータ結合・分割部と、データの正規化・標準化を行う正規化・標準化部と、複数の機械学習サービスや機械学習モデルを選択するサービス・モデル選択部と、機械学習モデルを構築するためのノーコード開発部と、平行的に複数の機械学習サービスや機械学習モデルを実行するシミュレーション部と、結果を表示し比較するモデル評価部と、最適な機械学習サービスあるいは機械学習モデルを選択するモデル選択部と、選択モデルを実業務へ投入し運用する投入・運用部と、上記一連の各部の機能をサポートするサポート部と、として機能させることを特徴とする。 Further, in order to solve the above problems, a program according to a sixteenth aspect causes a computer to convert collected learning data to match each machine learning service or machine learning model without intervention of an expert. a data cleansing unit that processes missing, redundant, and unnecessary data; a feature value extraction unit that extracts feature values from the original data; and preprocessing including statistical processing. A data combining/splitting unit that converts data into data suitable for the purpose using queries, data extraction and data conversion using queries, a normalization/standardization unit that normalizes and standardizes data, and multiple machines A service model selection section that selects learning services and machine learning models, a no-code development section for building machine learning models, a simulation section that executes multiple machine learning services and machine learning models in parallel, and results A model evaluation section that displays and compares, a model selection section that selects the optimal machine learning service or machine learning model, and an input/operation section that puts the selected model into actual business and operates it. It is characterized by functioning as a support part that supports.

上記態様によれば、専門家の介在無しに、収集された学習データをそれぞれの機械学習サービスや機械学習モデルに合致するように変換するデータ加工・変換部、欠損データや重複・不要データの処理を含むデータクレンジング部、原データからの特徴量の抽出を行う特徴量抽出部、統計的処理を含む前処理を適用して目的に適したデータへの変換やクエリを使用したデータ抽出やデータ結合を含むデータ変換を行うデータ結合・分割部、データの正規化・標準化を行う正規化・標準化部、複数の機械学習サービスや機械学習モデルを選択するサービス・モデル選択部、プログラミングをすることなしに独自の機械学習モデルを構築するノーコード開発部、平行的に複数の機械学習サービスや機械学習モデルを実行するシミュレーション部、結果を表示し比較するモデル評価部、最適な機械学習サービスあるいは機械学習モデルを選択するモデル選択部、選択モデルを実業務へ投入し運用する投入・運用部、及びこれら一連をサポートするサポート部、として機能することが可能となる。 According to the above aspect, the data processing/converting unit converts the collected learning data so as to match each machine learning service or machine learning model without the intervention of an expert, and the processing of missing data, duplicated/unnecessary data, etc. a data cleansing unit including a data cleansing unit, a feature extraction unit that extracts feature values from the original data, a conversion to data suitable for the purpose by applying preprocessing including statistical processing, and data extraction and data combination using queries Data joining/splitting part that performs data transformation including normalization/standardization part that normalizes/standardizes data Service/model selection part that selects multiple machine learning services and machine learning models, without programming A no-code development department that builds its own machine learning model, a simulation department that runs multiple machine learning services and machine learning models in parallel, a model evaluation department that displays and compares results, and an optimal machine learning service or machine learning model. can function as a model selection unit that selects a model, an input/operation unit that inputs the selected model into actual work and operates it, and a support unit that supports a series of these.

第17の態様として、第16の態様に係るプログラムが記憶された記録媒体として実現することもできる。 A seventeenth aspect can also be implemented as a recording medium storing the program according to the sixteenth aspect.

最後に、本開示に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, while various embodiments of the present disclosure have been described, they have been presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1 :情報処理システム
2 :情報処理装置
3 :ユーザ端末
13 :学習画面
14 :運用画面
20 :通信バス
21 :通信部
22 :記憶部
23 :制御部
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
34 :表示部
35 :入力部
132 :入力領域
133 :学習領域
134 :結果領域
140 :ジョブ領域
141 :第1のジョブ領域
142 :第2のジョブ領域
143 :第3のジョブ領域
144 :第4のジョブ領域
145 :第5のジョブ領域
146 :第6のジョブ領域
147 :第2の切替領域
151 :パイプライン指定領域
231 :受付部
232 :変換処理部
233 :生成部
1320 :入力内部領域
1321 :受付領域
1322 :変換処理指定領域
1323 :入力データ出力領域
1330 :学習内部領域
1331 :指定領域
1332 :予測設定領域
1333 :モデル情報表示領域
1334 :第1の切替領域
1340 :結果内部領域
1341 :出力表示領域
1342 :出力処理指定領域
1343 :出力処理領域
A001 :アクティビティ
A002 :アクティビティ
A003 :アクティビティ
A004 :アクティビティ
A005 :アクティビティ
A006 :アクティビティ
A007 :アクティビティ
A008 :アクティビティ
A009 :アクティビティ
A010 :アクティビティ
A101 :アクティビティ
A102 :アクティビティ
A103 :アクティビティ
DB1 :データベース
EC1 :第1の外部コネクタ
EC2 :第2の外部コネクタ
F1 :フローコネクタ
IC1 :第1の内部コネクタ
IC2 :第2の内部コネクタ
IC3 :第3の内部コネクタ
N1 :第1の指数表示領域
N2 :第2の指数表示領域
N3 :第3の指数表示領域
Op1 :第1の切替操作
Op2 :第2の切替操作
PL :パイプライン
RP1 :レポジトリ表示領域
W1 :設定実行ラベル
1 : Information processing system 2 : Information processing device 3 : User terminal 13 : Learning screen 14 : Operation screen 20 : Communication bus 21 : Communication unit 22 : Storage unit 23 : Control unit 30 : Communication bus 31 : Communication unit 32 : Storage unit 33 : control unit 34 : display unit 35 : input unit 132 : input area 133 : learning area 134 : result area 140 : job area 141 : first job area 142 : second job area 143 : third job area 144 : fourth job area 145 : fifth job area 146 : sixth job area 147 : second switching area 151 : pipeline designation area 231 : reception unit 232 : conversion processing unit 233 : generation unit 1320 : input internal Area 1321 : Reception area 1322 : Conversion process designation area 1323 : Input data output area 1330 : Learning internal area 1331 : Designation area 1332 : Prediction setting area 1333 : Model information display area 1334 : First switching area 1340 : Result internal area 1341 : Output display area 1342 : Output processing designation area 1343 : Output processing area A001 : Activity A002 : Activity A003 : Activity A004 : Activity A005 : Activity A006 : Activity A007 : Activity A008 : Activity A009 : Activity A010 : Activity A101 : Activity A102 : Activity A103: Activity DB1: Database EC1: First external connector EC2: Second external connector F1: Flow connector IC1: First internal connector IC2: Second internal connector IC3: Third internal connector N1: First index display area N2: second index display area N3: third index display area Op1: first switching operation Op2: second switching operation PL: pipeline RP1: repository display area W1: setting execution label

Claims (11)

情報処理システムであって、
制御部を備え、
前記制御部は、次の各ステップを実行するように構成され、
第1の生成ステップでは、入力データに関するデータ情報を提示可能な入力領域と、前記入力データを用いた学習モデルの学習条件を設定可能な学習領域と、前記入力領域と前記学習領域とを対応付ける第1の外部コネクタと、を含む学習画面を生成する、もの。
An information processing system,
Equipped with a control unit,
The control unit is configured to perform the following steps,
In the first generation step, an input area capable of presenting data information about input data, a learning area capable of setting learning conditions for a learning model using the input data, and a first generating step for associating the input area with the learning area. 1 external connector; and to generate a learning screen containing.
請求項1に記載の情報処理システムにおいて、
前記入力領域は、複数の入力内部領域と、前記入力内部領域の間を接続する第1の内部コネクタと、を含み、
前記入力内部領域のそれぞれは、前記入力データに対する操作の単位を示す、もの。
In the information processing system according to claim 1,
the input areas include a plurality of input internal areas and a first internal connector connecting between the input internal areas;
Each of the input internal regions indicates a unit of operation on the input data.
請求項2に記載の情報処理システムにおいて、
前記入力内部領域の1つは、少なくともユーザからの前記入力データの入力を受付可能な受付領域を含む、もの。
In the information processing system according to claim 2,
One of the input internal areas includes at least a receiving area capable of receiving input of the input data from a user.
請求項1~請求項3の何れか1つに記載の情報処理システムにおいて、
前記学習領域は、複数の学習内部領域と、前記学習内部領域の間を接続する第2の内部コネクタと、を含み、
前記学習内部領域のそれぞれは、前記学習条件の設定の単位を示す、もの。
In the information processing system according to any one of claims 1 to 3,
the learning area includes a plurality of internal learning areas and a second internal connector connecting between the internal learning areas;
Each of the learning inner areas indicates a unit for setting the learning condition.
請求項4に記載の情報処理システムにおいて、
前記学習内部領域の1つは、少なくとも前記学習モデルへの前記入力データの入力態様を指定可能な指定領域を含む、もの。
In the information processing system according to claim 4,
One of the learning internal regions includes at least a designated region capable of designating an input mode of the input data to the learning model.
請求項1~請求項5の何れか1つに記載の情報処理システムにおいて、
前記学習画面は、前記入力データを用いた前記学習モデルの出力に関する結果情報を表す結果領域と、前記学習領域と前記結果領域とを対応付ける第2の外部コネクタと、を含む、もの。
In the information processing system according to any one of claims 1 to 5,
The learning screen includes a result area representing result information regarding the output of the learning model using the input data, and a second external connector that associates the learning area and the result area.
請求項1~請求項6の何れか1つに記載の情報処理システムにおいて、
さらに、第2の生成ステップでは、切替領域に対するユーザの切替操作に応じて運用画面を生成し、ここで、前記運用画面には、前記学習モデルのデータフローを示すパイプラインが表示される、もの。
In the information processing system according to any one of claims 1 to 6,
Furthermore, in the second generation step, an operation screen is generated in response to a user's switching operation on the switching area, and a pipeline indicating a data flow of the learning model is displayed on the operation screen. .
請求項7に記載の情報処理システムにおいて、
異なる複数の前記入力データを用いて前記学習モデルの再学習が行われる場合、前記パイプラインは、当該入力データごとに生成される前記学習モデルごとに表示される、もの。
In the information processing system according to claim 7,
When the learning model is retrained using a plurality of different input data, the pipeline is displayed for each learning model generated for each input data.
請求項7又は請求項8に記載の情報処理システムにおいて、
前記パイプラインは、前記学習モデルの特徴量に応じてクラスタリングされる前記学習モデルごとに表示される、もの。
In the information processing system according to claim 7 or claim 8,
The pipeline is displayed for each learning model clustered according to the feature amount of the learning model.
情報処理方法であって、
請求項1~請求項9の何れか1つに記載の情報処理システムの各ステップを含む、方法。
An information processing method,
A method comprising the steps of an information processing system according to any one of claims 1-9.
情報処理プログラムであって、
コンピュータに、請求項1~請求項9の何れか1つに記載の情報処理システムの各ステップを実行させる、もの。
An information processing program,
A computer that executes each step of the information processing system according to any one of claims 1 to 9.
JP2022047078A 2021-11-26 2022-03-23 Information processing system, information processing method and information processing program Pending JP2023079140A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021192392 2021-11-26
JP2021192392 2021-11-26

Publications (1)

Publication Number Publication Date
JP2023079140A true JP2023079140A (en) 2023-06-07

Family

ID=84387512

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2022037738A Active JP7186411B1 (en) 2021-11-26 2022-03-11 Information processing system, information processing method and information processing program
JP2022037737A Active JP7185888B1 (en) 2021-11-26 2022-03-11 Information processing system, information processing method and information processing program
JP2022047078A Pending JP2023079140A (en) 2021-11-26 2022-03-23 Information processing system, information processing method and information processing program
JP2022184028A Pending JP2023079181A (en) 2021-11-26 2022-11-17 Information processing system, information processing method and information processing program
JP2022184750A Pending JP2023079183A (en) 2021-11-26 2022-11-18 Information processing system, information processing method and information processing program

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2022037738A Active JP7186411B1 (en) 2021-11-26 2022-03-11 Information processing system, information processing method and information processing program
JP2022037737A Active JP7185888B1 (en) 2021-11-26 2022-03-11 Information processing system, information processing method and information processing program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022184028A Pending JP2023079181A (en) 2021-11-26 2022-11-17 Information processing system, information processing method and information processing program
JP2022184750A Pending JP2023079183A (en) 2021-11-26 2022-11-18 Information processing system, information processing method and information processing program

Country Status (1)

Country Link
JP (5) JP7186411B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170855A (en) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd World timepiece, and method of setting time of world timepiece
JP6007430B2 (en) * 2015-05-20 2016-10-12 大澤 昇平 Machine learning model design support device, machine learning model design support method, program for machine learning model design support device
WO2020158217A1 (en) * 2019-02-01 2020-08-06 ソニー株式会社 Information processing device, information processing method, and information processing program
WO2020157799A1 (en) * 2019-01-28 2020-08-06 三菱電機株式会社 Development assistance device, development assistance system, and development assistance method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029198A (en) * 1998-07-10 2000-01-28 D S Giken:Kk Color proof device, image processor and recording medium
JP2001100754A (en) * 1999-09-28 2001-04-13 Sharp Corp Method and device for data processing and computer readable recording medium stored with data processing program
JP2015219617A (en) * 2014-05-15 2015-12-07 日本光電工業株式会社 Disease analysis device, disease analysis method, and program
JP2017058848A (en) * 2015-09-15 2017-03-23 日本電気株式会社 Information processing system, information processing method, and program
JP7028075B2 (en) * 2018-06-12 2022-03-02 オムロン株式会社 Image processing equipment, image processing method, image sensor
JP7049210B2 (en) * 2018-08-07 2022-04-06 株式会社キーエンス Data analyzer and data analysis method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006170855A (en) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd World timepiece, and method of setting time of world timepiece
JP6007430B2 (en) * 2015-05-20 2016-10-12 大澤 昇平 Machine learning model design support device, machine learning model design support method, program for machine learning model design support device
WO2020157799A1 (en) * 2019-01-28 2020-08-06 三菱電機株式会社 Development assistance device, development assistance system, and development assistance method
WO2020158217A1 (en) * 2019-02-01 2020-08-06 ソニー株式会社 Information processing device, information processing method, and information processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川嶋 宏彰: "機械学習ことはじめ", シェルスクリプトマガジン 2021 JUNE, vol. 72, JPN6022048369, 25 May 2021 (2021-05-25), JP, pages 42 - 51, ISSN: 0005049712 *

Also Published As

Publication number Publication date
JP7185888B1 (en) 2022-12-08
JP7186411B1 (en) 2022-12-09
JP2023079138A (en) 2023-06-07
JP2023079183A (en) 2023-06-07
JP2023079137A (en) 2023-06-07
JP2023079181A (en) 2023-06-07

Similar Documents

Publication Publication Date Title
US11544604B2 (en) Adaptive model insights visualization engine for complex machine learning models
US20170017903A1 (en) User Interface for a Unified Data Science Platform Including Management of Models, Experiments, Data Sets, Projects, Actions, Reports and Features
US20160232457A1 (en) User Interface for Unified Data Science Platform Including Management of Models, Experiments, Data Sets, Projects, Actions and Features
JP2020515963A (en) Autonomous generation design synthesis system using data from design tools and knowledge from digital twin graph
US11861469B2 (en) Code generation for Auto-AI
US20100241244A1 (en) Natively retaining project documentation in a controller
CN114365079A (en) Performance based system configuration as a pre-processing of system performance simulation
JPWO2018079225A1 (en) Automatic prediction system, automatic prediction method, and automatic prediction program
CN117389541B (en) Configuration system and device for generating template based on dialogue retrieval
CN114341795A (en) Conversation design robot for system design
US20140310306A1 (en) System And Method For Pattern Recognition And User Interaction
US20240061653A1 (en) Collaborative industrial integrated development and execution environment
CN117688632A (en) AIGC-based intelligent three-dimensional modeling method in SolidWorks
US20230244218A1 (en) Data Extraction in Industrial Automation Systems
US20230409956A1 (en) Machine learning prediction of additional steps of a computerized workflow
JP2023079140A (en) Information processing system, information processing method and information processing program
JP6854982B1 (en) Programming support program, programming support device and programming support method
JP2023079180A (en) Information processing system, information processing method and information processing program
JP2023002103A (en) Model inference device, method, and program
JP2021002126A (en) Design support device, design support method and design support program
US20230350647A1 (en) Programming Aiding Apparatus and Programming Aiding Method
EP4283546A1 (en) Machine learning prediction of additional steps of a computerized workflow
US20230306349A1 (en) Benchmarking processes of an organization to standardized processes
Dion Designing an Interactive Interface for FACET: Personalized Explanations in XAI
JP2024016001A (en) Material selection for designing manufactured products

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230502