WO2023163172A1 - 溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム - Google Patents

溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム Download PDF

Info

Publication number
WO2023163172A1
WO2023163172A1 PCT/JP2023/007055 JP2023007055W WO2023163172A1 WO 2023163172 A1 WO2023163172 A1 WO 2023163172A1 JP 2023007055 W JP2023007055 W JP 2023007055W WO 2023163172 A1 WO2023163172 A1 WO 2023163172A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameters
data
amount
group
data set
Prior art date
Application number
PCT/JP2023/007055
Other languages
English (en)
French (fr)
Inventor
翔平 蓬田
佑樹 山本
Original Assignee
株式会社Uacj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Uacj filed Critical 株式会社Uacj
Publication of WO2023163172A1 publication Critical patent/WO2023163172A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C22METALLURGY; FERROUS OR NON-FERROUS ALLOYS; TREATMENT OF ALLOYS OR NON-FERROUS METALS
    • C22BPRODUCTION AND REFINING OF METALS; PRETREATMENT OF RAW MATERIALS
    • C22B21/00Obtaining aluminium
    • CCHEMISTRY; METALLURGY
    • C22METALLURGY; FERROUS OR NON-FERROUS ALLOYS; TREATMENT OF ALLOYS OR NON-FERROUS METALS
    • C22BPRODUCTION AND REFINING OF METALS; PRETREATMENT OF RAW MATERIALS
    • C22B9/00General processes of refining or remelting of metals; Apparatus for electroslag or arc remelting of metals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring

Definitions

  • the present disclosure relates to a method of generating a trained prediction model for predicting the amount of dross generated in a melting furnace, a method of predicting the amount of dross generated in a melting furnace, and a computer program.
  • Patent Document 1 process variables are extracted from time-series data measured by various sensors installed in blast furnace equipment, stored in a search table, process variables with high similarity are searched from the search table, and past discloses a method for predicting the future state of a melting process based on similar melting process cases in .
  • the inference algorithm used in the method described in Patent Document 1 is a case search base that searches for similar dissolution processes in the past. Therefore, the obtained process variables are only within the range of past performance and in the vicinity of similar cases. Therefore, it becomes difficult to obtain a solution in a range that is not in the vicinity of similar cases.
  • the present invention has been made in view of the above problems, and its object is to provide a learned prediction model for predicting the amount of dross generated in a melting furnace (hereinafter sometimes referred to as "dross generation amount").
  • generation method a method for predicting the amount of dross generated using the prediction model, and using the prediction model, it is possible to support the selection of operating conditions for a melting furnace that satisfies the desired amount of dross generation. It is to provide a system that becomes
  • the method of generating a learned prediction model that predicts the amount of dross generated in the melting furnace of the present disclosure has different attributes for each charge from raw material charging to completion of melting.
  • the preprocessing is a step including extracting an n-dimensional feature amount (n is an integer of 1 or more) from each process state parameter including a time series data group acquired for each charge, and based on the extracted n-dimensional feature amount a step of generating a learning data set, wherein the learning data set includes at least one or more process target parameters indicating process basic information set for each charge; and the generated learning data set to generate the learned prediction model that predicts the dross generation rate.
  • the method of predicting the amount of dross generated in the melting furnace of the present disclosure includes control pattern candidates, process pattern candidates, and a single Receiving input data including one or more process target parameters indicating process basic information set for each charge, and inputting the input data to a prediction model to output a predicted dross generation amount for each charge.
  • the prediction model is a trained model trained using a learning data set generated based on n-dimensional feature values extracted from one or more process state parameters with different attributes
  • Each of the one or more process state parameters is defined by a continuous time-series data group acquired for each charge based on outputs from various sensors installed in the melting furnace, and the learning data set is , one or more process target parameters including data ranges for the process target parameters included in the input data.
  • a computer program of the present disclosure in a non-limiting exemplary embodiment, comprises the steps of obtaining a prediction model for predicting the amount of dross generated in a melting furnace; receiving input data including one or more process target parameters indicative of process baseline information to be set for each charge to completion; and inputting said input data into said predictive model to generate a predicted dross generation for each charge. and a step of outputting a quantity, wherein the prediction model learns using a learning data set generated based on n-dimensional feature quantities extracted from one or more process state parameters having different attributes. and each of the one or more process state parameters is a continuous time-series data group acquired for each charge based on outputs from various sensors installed in the melting furnace.
  • the training data set includes one or more process target parameters including the process target parameters included in the input data.
  • Exemplary embodiments of the present disclosure provide a method for generating a learned prediction model that predicts the amount of dross generated in a melting furnace, a method for predicting the amount of dross generated using the prediction model, and a method using the prediction model. Therefore, the present invention provides a system capable of supporting the selection of operating conditions for a melting furnace that satisfies a desired amount of dross generated.
  • FIG. 1 is a schematic diagram illustrating the configuration of a melting furnace.
  • FIG. 2 is a block diagram illustrating a schematic configuration of a melting furnace operation support system according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram showing a hardware configuration example of the data processing device according to the embodiment of the present disclosure.
  • FIG. 4 is a hardware block diagram showing a configuration example of a cloud server having a database storing a huge amount of data.
  • FIG. 5 is a chart illustrating a processing procedure for generating a learned prediction model for predicting the amount of dross generated in a melting furnace, according to an embodiment of the present disclosure;
  • FIG. 6 is a flow chart showing a processing procedure according to the first implementation example.
  • FIG. 1 is a schematic diagram illustrating the configuration of a melting furnace.
  • FIG. 2 is a block diagram illustrating a schematic configuration of a melting furnace operation support system according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram showing a hardware configuration
  • FIG. 7 is a diagram for explaining the process of applying the encoding process to the process state parameter group and extracting the n-dimensional feature vector.
  • FIG. 8 is a diagram showing a configuration example of a neural network.
  • FIG. 9 illustrates a table containing predicted dross generation amounts per charge output from the prediction model.
  • FIG. 10 is a flow chart showing a processing procedure according to the second implementation example.
  • FIG. 11 is a diagram for explaining the process of applying clustering to l ⁇ m ⁇ n-dimensional feature vectors to generate m-dimensional control pattern vectors.
  • FIG. 12 illustrates a table containing predicted dross generation amounts per charge output from the prediction model.
  • FIG. 13 is a flow chart showing a processing procedure according to the third implementation example.
  • FIG. 14 is a diagram for explaining a process of applying encoding processing and clustering to a time-series process data group defining main process state parameters to generate an m-dimensional process pattern vector.
  • FIG. 15 illustrates a table containing predicted dross generation amounts per charge output from the prediction model.
  • FIG. 16 is a flow chart showing a processing procedure according to the fourth implementation example.
  • FIG. 17 is a diagram illustrating a process of inputting input data to a trained model and outputting output data including a predicted value of the amount of generated dross.
  • FIG. 18 is a graph showing evaluation results of prediction accuracy in a comparative example.
  • FIG. 19A is a graph showing evaluation results of prediction accuracy in the first implementation example.
  • FIG. 19B is a graph showing evaluation results of prediction accuracy in the second implementation example.
  • FIG. 19C is a graph showing evaluation results of prediction accuracy in the third implementation example.
  • FIG. 19D is a graph showing evaluation results of prediction accuracy in the fourth implementation example.
  • Alloy materials such as aluminum alloys (hereinafter referred to as "aluminum alloys") are manufactured through multiple manufacturing processes including various processes.
  • the manufacturing process for semi-continuous (DC) casting of aluminum alloys includes the process of melting the material in a melting furnace, the process of holding the molten metal in a holding furnace, adjusting the composition and temperature, and using a continuous degassing device. a process of degassing hydrogen gas using RMF (Rigid Media Tube Filter), a process of removing inclusions, and a process of casting a slab.
  • RMF Rid Media Tube Filter
  • additional processes such as additional charging of HOT materials and cold materials (reuse of materials), removal of dross, and reheating are performed. can contain. This series of processes is an in-line process.
  • a material manufacturer can accumulate a huge amount of chronological process data acquired at the manufacturing stage in a database for a long period of time, for example several years, 10 years, 20 years or more.
  • Time-series process data can be stored in a database in association with design/development information, climate data during manufacturing, test data, and the like.
  • Such data groups are called big data.
  • material manufacturers have yet to effectively utilize big data.
  • the inventors of the present application have developed a new model that can optimize the conditions of the dissolution process by using a data-driven prediction model for the amount of generated dross that is constructed using existing big data. I came up with a method.
  • the following embodiments are examples, and the method for generating a learned prediction model for predicting the amount of dross generated in the melting furnace, the method for predicting the amount of dross generated in the melting furnace, and the operation support system according to the present disclosure are as follows. It is not limited to the embodiment. For example, numerical values, shapes, materials, steps, order of steps, and the like shown in the following embodiments are merely examples, and various modifications are possible as long as there is no technical contradiction. Moreover, it is possible to combine one aspect with another aspect as long as there is no technical contradiction.
  • FIG. 1 is a schematic diagram illustrating the configuration of the melting furnace 700.
  • the melting furnace 700 in this embodiment is a top-charge type in which the material 703 is charged from above. The material is melted by directly applying a flame 702 jetted from a high speed burner 701 to the material.
  • One or more sensors may be installed in the melting furnace. In the illustrated example, a flow rate sensor 705A that measures the flow rate of exhaust gas discharged from the flue 704 of the melting furnace 700, a gas sensor 708 that detects specific components contained in the combustion exhaust gas, and a combustion air flow rate in the high-speed burner 701.
  • a flow sensor 705C for measuring the flow rate of combustion gas in the high-speed burner 701 for measuring the flow rate of combustion gas in the high-speed burner 701
  • a pressure sensor 706 for measuring the pressure inside the melting furnace 700 for measuring the pressure inside the melting furnace 700
  • a temperature sensor 707 is installed in the melting furnace 700 .
  • Various sensors measure data at predetermined sampling intervals. Examples of predetermined sampling intervals are 1 second or 1 minute. Data measured by various sensors are stored in the database 100, for example. Communication between various sensors and the database is realized by wireless communication conforming to the Wi-Fi (registered trademark) standard, for example.
  • Wi-Fi registered trademark
  • the melting yield in the melting furnace in this embodiment is the ratio of the weight obtained by subtracting the weight of the dross generated from the weight A of the charging material (the amount of dross generated) B to the weight A of the charging material charged at the time of melting ( AB)/A. Therefore, if it is possible to predict the amount of dross generated at a given melt charging amount, it is possible to predict the melt yield.
  • Dross is a thick film or massive metal oxide (or impurity) floating on the surface of the molten metal.
  • An example of dross in embodiments of the present disclosure is aluminum dross. In the aluminum melting process, aluminum dross is generated as an impurity. Aluminum dross is said to contain about 60 to 80% of aluminum, and technology for recovering and reusing aluminum from aluminum dross is being developed.
  • Process data Time-series data obtained based on outputs from various sensors installed in the melting furnace 700 is called "process data”.
  • process data include exhaust gas flow rate (m 3 /h), combustion air flow rate (m 3 /h), combustion gas flow rate (m 3 /h), furnace pressure (kPa), furnace atmosphere temperature (°C), Or it is the exhaust gas analysis concentration (%).
  • process state parameters are defined by a continuous time-series data group of process data obtained for each charge.
  • process state parameters are exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, furnace atmospheric temperature, as well as process data.
  • process target parameter The data indicating the basic information of the melting process set for each charge is called the "process target parameter".
  • process target parameters include material charging amount (ton), HOT material charging amount (ton), melting time (min), number of charges calculated from the charge for cleaning the hearth (th), Mg concentration (% ) and Mg master alloy addition amount (ton).
  • Process target parameters are non-time series data and given as eigenvalues.
  • the process target parameters may include, in addition to the data described above, for example, data regarding the state of the charge material (shape, oxide film thickness, surface deposits) and data regarding the slag removal flux used during melting.
  • the number of charges calculated from the charge for cleaning the hearth is called the "cleaning factor".
  • the next charge is the first
  • the next charge is the second
  • the furnace floor is cleaned once every ten or so charges to remove dross adhering to the walls and floor. Therefore, it is predicted that the amount of dross tends to be small in charging immediately after charging for cleaning the hearth, and that the amount of dross tends to increase as the number of charging increases.
  • a cleaning factor is introduced into the process target parameters.
  • Disturbance parameters Parameters that include external environmental factors are called "disturbance parameters". Examples of disturbance parameters are climatic data such as hourly average temperature (°C) and average relative humidity (%). climate data is time series data. Disturbance parameters may include, for example, data on workers and work groups, work times, etc., in addition to climate data.
  • climatic data such as hourly average temperature (°C) and average relative humidity (%).
  • climate data is time series data.
  • Disturbance parameters may include, for example, data on workers and work groups, work times, etc., in addition to climate data.
  • FIG. 2 is a block diagram illustrating a schematic configuration of a melting furnace operation support system 1000 according to this embodiment.
  • a melting furnace operation support system (hereinafter simply referred to as "system") 1000 includes a database 100 storing a plurality of time-series process data obtained based on outputs from a plurality of sensors, and a data processing device 200.
  • the database 100 stores process states obtained by multiple charges for each of the exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, furnace atmosphere temperature, exhaust gas analysis concentration, and exhaust gas temperature. Stores parameters.
  • the database 100 may store process target parameters of material charge per charge, melt time. Additionally, database 100 may store climate data, such as, for example, average temperature, in association with process target parameters.
  • the data processor 200 can access the vast amount of data accumulated in the database 100 and acquire one or more process state parameters and one or more process target parameters with different attributes.
  • the database 100 is a storage device such as a semiconductor memory, magnetic storage device, or optical storage device.
  • the data processing device 200 includes a data processing device main body 201 and a display device 220 .
  • software used to generate a prediction model that predicts the amount of dross generated in the melting furnace using data accumulated in the database 100, and a learned prediction model at runtime.
  • Software for predicting the amount of dross generated is installed in the main body 201 of the data processing device.
  • Such software may be recorded on a computer-readable recording medium such as an optical disc, sold as packaged software, or provided via the Internet.
  • the display device 220 is, for example, a liquid crystal display or an organic EL display.
  • the display device 220 displays a predicted value of the dross generation amount for each charge based on the output data output from the main body 201, for example.
  • a typical example of the data processing device 200 is a personal computer.
  • the data processing device 200 may be a dedicated device that functions as a melting furnace operation support system.
  • FIG. 3 is a block diagram showing a hardware configuration example of the data processing device 200.
  • the data processing device 200 includes an input device 210 , a display device 220 , a communication I/F 230 , a storage device 240 , a processor 250 , a ROM (Read Only Memory) 260 and a RAM (Random Access Memory) 270 . These components are communicatively connected to each other via bus 280 .
  • the input device 210 is a device for converting instructions from the user into data and inputting it to the computer.
  • the input device 210 is, for example, a keyboard, mouse or touch panel.
  • the communication I/F 230 is an interface for performing data communication between the data processing device 200 and the database 100. As long as the data can be transferred, its form and protocol are not limited.
  • the communication I/F 230 can perform wired communication conforming to USB, IEEE1394 (registered trademark), Ethernet (registered trademark), or the like.
  • the communication I/F 230 can perform wireless communication conforming to the Bluetooth (registered trademark) standard and/or the Wi-Fi standard. Both standards include wireless communication standards using frequencies in the 2.4 GHz band or 5.0 GHz band.
  • the storage device 240 is, for example, a magnetic storage device, an optical storage device, a semiconductor storage device, or a combination thereof.
  • optical storage devices include optical disk drives or magneto-optical disk (MD) drives.
  • magnetic storage devices are hard disk drives (HDD), floppy disk (FD) drives or magnetic tape recorders.
  • An example of a semiconductor memory device is a solid state drive (SSD).
  • the processor 250 is a semiconductor integrated circuit and is also called a central processing unit (CPU) or a microprocessor.
  • the processor 250 sequentially executes a computer program stored in the ROM 260 and describing a group of instructions for training a prediction model and utilizing a learned model, thereby realizing desired processing.
  • the processor 250 is an FPGA (Field Programmable Gate Array) equipped with a CPU, a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or an ASSP (Application Specific Stand It is widely interpreted as a term including the ard Product).
  • the ROM 260 is, for example, a writable memory (eg PROM), a rewritable memory (eg flash memory), or a read-only memory.
  • ROM 260 stores a program that controls the operation of the processor.
  • the ROM 260 does not have to be a single recording medium, but can be a collection of multiple recording mediums. Some of the multiple aggregates may be removable memory.
  • the RAM 270 provides a work area for temporarily expanding the control program stored in the ROM 260 at boot time.
  • the RAM 270 does not have to be a single recording medium, but can be a collection of multiple recording mediums.
  • the system 1000 includes the database 100 and the data processing device 200 shown in FIG.
  • the database 100 is hardware different from the data processing device 200 .
  • a storage medium such as an optical disk storing a large amount of data
  • FIG. 4 is a hardware block diagram showing a configuration example of the cloud server 300 having a database 340 storing a huge amount of data.
  • system 1000 includes one or more data processing devices 200 and database 340 of cloud server 300, as shown in FIG.
  • Cloud server 300 has processor 310 , memory 320 , communication I/F 330 and database 340 .
  • a large amount of data can be stored in database 340 on cloud server 300 .
  • a plurality of data processors 200 can be connected via a local area network (LAN) 400 constructed in-house.
  • Local area network 400 is connected to Internet 350 via an Internet provider service (IPS).
  • IPS Internet provider service
  • Each data processing device 200 can access the database 340 of the cloud server 300 via the Internet 350 .
  • the system 1000 may comprise one or more data processing devices 200 and cloud servers 300 .
  • the processor 310 provided in the cloud server 300 trains the prediction model and utilizes the learned model. can be executed sequentially.
  • a plurality of data processors 200 connected to the same LAN 400 may cooperatively execute a computer program describing such instruction groups.
  • FIG. 5 is a chart illustrating a processing procedure for generating a learned prediction model for predicting the amount of dross generated in the melting furnace in this embodiment.
  • a learned prediction model is hereinafter referred to as a “learned model”.
  • the learned model according to this embodiment predicts the amount of dross generated in the melting furnace used to manufacture aluminum alloys.
  • the learned model can also be used to predict the amount of dross generated in a melting furnace used for manufacturing alloy materials other than aluminum alloys.
  • the trained model according to this embodiment may be called a predictive model for predicting the melting yield.
  • the method of generating a learned model includes step S110 of acquiring process state parameters for each charge, and whether or not a group of process state parameters for m charges (m is an integer of 2 or more) has been acquired. It includes a determining step S120, a preprocessing step S130, a learning data set generating step S140, and a trained model generating step S150.
  • the entity that executes each process is one or more processors.
  • One processor may perform one or more processes, or multiple processors may cooperate to perform one or more processes.
  • Each process is described in a computer program in units of software modules. However, when using an FPGA or the like, all or part of these processes may be implemented as hardware accelerators.
  • the data processing device 200 including the processor 250 is assumed to execute each step.
  • step S110 the data processor 200 accesses the database 100 and acquires or obtains one or more process state parameters with different attributes for each charge from raw material charging to completion of melting.
  • the data processing device 200 stores the exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, furnace atmosphere temperature, O 2 concentration in the exhaust gas, CO concentration, NO
  • Each process data group of X concentration and exhaust gas temperature is accessed, and process state parameters are obtained for each charge.
  • the nine process state parameters, exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, pressure in the furnace, atmosphere temperature in the furnace, O2 concentration in the exhaust gas, CO concentration, NO X concentration, and exhaust gas temperature are set for each charge. is obtained.
  • the data processing device 200 can access the database 100 after the time-series process data groups of multiple charges are stored in the database 100 and collectively acquire the process state parameter groups of multiple charges (offline processing). Alternatively, the data processing device 200 can access the database 100 and acquire the process state parameters of one charge each time the time-series process data group of one charge is stored in the database 100 (online processing).
  • step S120 the data processing device 200 repeatedly executes step S110 until the process state parameter group for m charges is acquired.
  • the charging number m in this embodiment is, for example, about 1000 times.
  • the data processing device 200 acquires the data set including the process state parameter group for m charges, the data processing device 200 proceeds to the next step S130.
  • the data set consists of exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, furnace atmosphere temperature, O concentration in exhaust gas, CO concentration, NO X concentration, and exhaust gas temperature. Contains nine process state parameter groups.
  • step 130 the data processing device 200 applies machine learning to the data set acquired in step S120 to perform preprocessing.
  • n-dimensional feature quantities (n is an integer of 1 or more) are extracted from the process state parameters including the time-series data group acquired for each charge for each process state parameter having different attributes.
  • an n-dimensional feature quantity may be expressed as an n-dimensional feature vector.
  • Examples of machine learning applied in preprocessing in this embodiment include autoencoders such as convolutional autoencoders (CAE), variational autoencoders (VAE), k-means methods, c-means methods, mixed Gaussian distributions (GMM), dendrogram method, spectral clustering or probabilistic latent semantic analysis (PLSA or PLSI). Preprocessing will be described in detail later.
  • CAE convolutional autoencoders
  • VAE variational autoencoders
  • GMM mixed Gaussian distributions
  • PLSA or PLSI probabilistic latent semantic analysis
  • the data processing device 200 generates a learning data set based on the n-dimensional feature amount extracted from each process state parameter for each charge.
  • the learning data set includes at least one or more process target parameters indicating process basic information set for each charge.
  • the training data set may also include one or more disturbance parameters including external environmental factors such as climate data.
  • the learning data set includes two process target parameters, material charge, melt time, and disturbance parameters, such as average temperature and average relative humidity.
  • the training data set may contain other process target parameters and disturbance parameters.
  • the disturbance parameter is not an essential parameter, including it in the learning data set makes it possible to improve the prediction accuracy of the dross generation amount.
  • the data processing device 200 trains a prediction model using the generated learning data set to generate a trained model.
  • the prediction model is a supervised prediction model and is built with a neural network.
  • An example of a neural network is the multilayer perceptron (MLP). MLP is also called forward propagating neural network.
  • supervised prediction models are not limited to neural networks, and may be, for example, support vector machines or random forests.
  • a trained model for predicting the amount of dross generated in the melting furnace in this embodiment can be generated according to various processing procedures (that is, algorithms).
  • algorithms that is, algorithms.
  • First to fourth implementation examples of the algorithm are described below.
  • Computer programs containing instructions describing such algorithms can be supplied, for example, via the Internet.
  • preprocessing specific to each implementation example will be mainly described.
  • FIG. 6 is a flow chart showing a processing procedure according to the first implementation example.
  • the processing flow according to the first implementation example includes steps of obtaining a process state parameter group (S110, S120), step S130A of executing preprocessing, step S140 of generating a learning data set, and step S150 of generating a trained model. include.
  • the data processing device 200 acquires a data set including process state parameter groups for m charges.
  • the dataset consists of nine data sets: flue gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, furnace atmosphere temperature, O concentration in flue gas, CO concentration, NO X concentration, and flue gas temperature. Contains process state parameters acquired in m charges.
  • sampling intervals of various sensors differ depending on the attributes of data to be measured.
  • process data such as exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, and component concentration in exhaust gas (e.g., O 2 concentration, CO concentration, NO X concentration) are obtained by flow sensor 705 and pressure sensor 706.
  • Measurements are taken at sampling intervals of 1 second, and the furnace atmosphere temperature and exhaust gas temperature are measured at sampling intervals of 1 minute by the temperature sensor 707 .
  • the data processing device 200 applies the encoding processing S131A to each process state parameter including the time-series data group acquired for each charge, n-dimensional feature amount (or n-dimensional feature vector).
  • the number of dimensions of the feature quantity to be extracted differs according to the sampling interval of the sensor.
  • the data processing device 200 extracts n one-dimensional feature vectors for process parameters defined by a group of time-series process data measured at sampling intervals of 1 second.
  • the data processing device 200 extracts n two- dimensional feature vectors for process parameters defined by series process data sampled at a sampling interval of 1 minute.
  • the data processing device 200 calculates the following from the process state parameters of each of the exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, O2 concentration, CO concentration, and NO X concentration in the exhaust gas.
  • An 18-dimensional feature vector is extracted, and a 5-dimensional feature vector is extracted from each process state parameter of furnace atmosphere temperature and exhaust gas temperature.
  • FIG. 7 is a diagram for explaining the process of applying the encoding process S131A to the process state parameter group 500 and extracting the n-dimensional feature vector.
  • a vector transformation model of CAE or VAE which is a type of autoencoder, can be applied. An overview of CAE and VAE will now be given.
  • An ordinal encoder is a machine learning model that iteratively learns parameters so that the input matches the output through dimensional compression (encoding) on the input side and dimensional expansion (decoding) on the output side. Learning the ordinal encoder can be unsupervised learning or supervised learning.
  • CAE has a network structure that utilizes convolutional layers instead of fully connected layers for the encoding and decoding parts.
  • VAE has an intermediate layer represented as a random variable (latent variable) following an N-dimensional normal distribution. A latent variable obtained by compressing the dimension of the input data can be used as a feature quantity.
  • the encoding processing S131A in this implementation example is VAE.
  • the data processing device 200 applies VAE to the process state parameter group 500 to extract an n-dimensional feature vector for each charge from the time-series process data group that defines the process state parameters.
  • a group of time-series process data measured at a sampling interval of 1 second, which defines each process state parameter is expressed as, for example, a 30000-dimensional feature amount. 30000 dimensions correspond to the number of samplings (30000 times) in one charging period.
  • a group of time-series process data measured at sampling intervals of 1 minute is expressed as, for example, a 500-dimensional feature amount.
  • the data processing device 200 applies VAE to the process state parameter group 500 to generate an m ⁇ n-dimensional feature vector for each process state parameter. Assuming that the number of types of process state parameters is l, an l ⁇ m ⁇ n dimensional feature vector 510 is generated as a whole.
  • FIG. 7 shows a table of m ⁇ n-dimensional feature vectors in which n-dimensional feature vectors are arranged for each charge, for each process state parameter.
  • the data processing device 200 generates a learning data set including the l ⁇ m ⁇ n-dimensional feature vector 510 generated at step S130, process target parameters and disturbance parameters.
  • the learning data set in this implementation example is [m ⁇ 18]-dimensional feature vector, [m ⁇ 5]-dimensional feature vector for each process state parameter of furnace atmosphere temperature and exhaust gas temperature, material charging amount, HOT material charging amount, melting time, cleaning factor, Mg concentration , process target parameters such as Mg master alloy additions, and disturbance parameters such as hourly average temperature and average relative humidity.
  • step S150 the data processing device 200 trains the prediction model using the learning data set generated in step S140 to generate a trained model.
  • the prediction model in this implementation is MLP.
  • FIG. 8 is a diagram showing a configuration example of a neural network.
  • the illustrated neural network is an MLP composed of N layers from an input layer that is the first layer to an output layer that is the Nth layer (final layer).
  • the second layer to the (N ⁇ 1)th layer among the N layers are intermediate layers (also called “hidden layers”).
  • the number of units (also referred to as “nodes”) constituting the input layer is n, which is the same as the number of dimensions of the feature amount as the input data. That is, the input layer consists of n units.
  • the output layer consists of one unit. In this implementation, the number of hidden layers is 5 and the total number of units is 300.
  • a unit receives multiple inputs and computes an output. Let the multiple inputs be [x 1 , x 2 , x 3 , . and the bias b is added to the equation 1.
  • [w 1 , w 2 , w 3 , . . . , w i ] are the weights for each input.
  • the output z of the unit is given by the output of function f in Equation 2, called the activation function for the total input u.
  • the activation function is generally a monotonically increasing nonlinear function.
  • An example activation function is the logistic sigmoid function, given in Equation 3.
  • e in Equation 3 is Napier's number.
  • All units included in each layer are connected between layers. This causes the output of the left layer unit to become the input of the right layer unit, and signals propagate unidirectionally through this coupling from the left layer to the right layer.
  • the final output of the output layer is obtained.
  • the actual value of the amount of dross generated is used as training data.
  • the weight w and bias b parameters are optimized based on the loss function (squared error) so that the output of the output layer in the neural network approaches the actual value.
  • learning is performed 10000 times, for example.
  • FIG. 9 illustrates a table containing predicted dross generation amount per charge output from the prediction model. It should be noted that FIG. 9 shows the material charging amount as the process target parameter and the average temperature as the disturbance parameter.
  • the predicted value of the amount of dross generated per charge is obtained as output data, as illustrated in FIG.
  • the output data may include a predicted melting yield for each charge.
  • the predicted value of the amount of generated dross can be displayed on the display device 220, for example.
  • the operator can check the list of predicted values of the dross generation amount or the melting yield displayed on the display device 220, and based on this predicted value of the dross generation amount or the melting yield, the desired melting furnace can be operated. It becomes possible to select operating conditions.
  • VAE by applying VAE to the time-series process data group, it is possible to extract an 18-dimensional or 5-dimensional feature vector for each process state parameter.
  • a prediction model generated by integrating VAE and a neural network it is possible to predict the amount of dross generated with high accuracy.
  • data generation by VAE that is, utilization of latent variables compressed to low dimensions is beneficial in that it enables process evaluation in time series. For example, it becomes possible to tune the operating conditions of the melting furnace for each stage of the process.
  • FIG. 10 is a flow chart showing a processing procedure according to the second implementation example.
  • the second implementation example differs from the first implementation example in that the control pattern is generated based on the n-dimensional feature quantity. Differences will be mainly described below.
  • the data processing device 200 determines a control pattern by patterning a time-series process data group that defines each process state parameter based on the extracted n-dimensional feature quantity.
  • the preprocessing in this implementation example includes step S130A of applying encoding processing S131A to the time-series process data group defining process state parameters to extract n-dimensional feature amounts, and applying clustering S131B to the n-dimensional feature amounts. and Step 130C of generating a control pattern.
  • the processing of step S130A is as described in the first implementation example.
  • Examples of clustering are the GMM or K-means methods.
  • the clustering in this implementation is GMM. Representative algorithms for each of the GMM and k-means methods are briefly described below. These algorithms can be implemented in the data processing device 200 relatively easily.
  • GMM Gaussian Mixture
  • a Gaussian Mixture is an analytical method based on probability distributions, and is a model expressed as a linear combination of multiple Gaussian distributions. The model is fitted, for example, by maximum likelihood. In particular, when there are multiple clusters in the data group, clustering can be performed using mixed Gaussian distributions. GMM calculates the mean and variance of each of multiple Gaussian distributions given the data points. (i) Initialize the mean and variance of each Gaussian distribution. (ii) Calculate the weights to be given to the data points for each cluster. (iii) Update the mean and variance of each Gaussian based on the weights calculated by (ii). (iv) Repeat (ii) and (iii) until the change in the mean of each Gaussian distribution updated by (iii) is sufficiently small.
  • the k-means method is widely used in data analysis because the method is relatively simple and can be applied to relatively large data.
  • appropriate points corresponding to the number of clusters are selected and designated as the center of gravity (or representative point) of each cluster.
  • Data are also referred to as "records”.
  • (ii) Calculate the distance between each data point and the center of gravity of each cluster, and select the cluster with the closest center of gravity from among the number of centers of gravity that exist for the number of clusters as the cluster to which the data point belongs.
  • step S130C data processing device 200 performs clustering using the n-dimensional feature amount extracted in step S130A as input data, thereby performing control including a label indicating to which group each process of m charges belongs. determine the pattern. For example, by clustering, the input n 1- dimensional feature vectors can be classified into 10 groups, and the input n 2 -dimensional feature vectors can be classified into 5 groups.
  • step S131A the data processing device 200, for example, extracts 18-dimensional feature vectors from each of the exhaust gas flow rate, combustion air flow rate, combustion gas flow rate, furnace pressure, O 2 concentration, CO concentration, and NO X concentration in the exhaust gas. Then, for example, five-dimensional feature vectors are extracted from each of the furnace atmosphere temperature and the exhaust gas temperature.
  • the data processing device 200 applies clustering (step S131B) to the extracted 18-dimensional feature vector to determine a control pattern including a label indicating to which group each process of m charges belongs. Similarly, the data processing device 200 applies clustering (step S131B) to the extracted five-dimensional feature vector to obtain a control pattern including a label indicating to which group each process of m charges belongs. to decide.
  • the data processing device 200 performs clustering to classify, for example, 18-dimensional and 5-dimensional feature vectors for each charge into 10 groups and 5 groups, respectively.
  • the data processor 200 generates an m-dimensional control pattern vector 520 defined by m control patterns for m charges, corresponding to the 18-dimensional and 5-dimensional feature vectors respectively.
  • FIG. 11 is a diagram for explaining the process of applying clustering S131B to the l ⁇ m ⁇ n-dimensional feature vector 510 generated in step S130 to generate an m-dimensional control pattern vector 520.
  • Control patterns corresponding to 18-dimensional feature vectors include, for example, 10 types of patterns labeled AA to JJ
  • control patterns corresponding to 5-dimensional feature vectors include, for example, 5 types of patterns labeled AA to EE.
  • the control pattern is the control state of the melting furnace extracted as a pattern. It is patterned.
  • the controlled state of the melting furnace means, for example, a state in which the combustion gas flow rate is high in the early stage of melting, a state in which the pressure in the furnace is low in the late stage of melting, and the like.
  • the control pattern may also include information regarding the operation of the melting furnace, as will be described later.
  • FIG. 12 exemplifies a table containing the predicted dross generation amount for each charge output from the prediction model.
  • the learning data set includes m-dimensional control pattern vectors in addition to process target parameters and disturbance parameters.
  • the m-dimensional control pattern vector in the learning data set, it is possible to improve the prediction accuracy of the dross generation amount. For example, the influence of minute variations in time-series process data can be suppressed, and robustness can be improved.
  • by linking to the actual operation it may become easier to control the melting furnace under desired operating conditions of the melting furnace.
  • the predicted value of the amount of dross generated per charge is obtained as output data, as illustrated in FIG.
  • FIG. 13 is a flow chart showing a processing procedure according to the third implementation example.
  • the third implementation differs from the first or second implementation in that the process pattern is generated based on the main process state parameters. Differences will be mainly described below.
  • the preprocessing in this implementation example includes step S130D of generating a control pattern based on the n-dimensional feature quantity extracted in step S130A, and step S130E of generating a process pattern based on main process state parameters.
  • step S130A The processing of step S130A is as described in the second embodiment. That is, the data processing device 200 extracts, for example, an 18-dimensional feature vector from a time-series process data group that defines each of the exhaust gas flow rate, the combustion air flow rate, the furnace pressure, the O 2 concentration in the exhaust gas, the CO concentration, and the NO X concentration. is extracted, and a five-dimensional feature vector is extracted from the time-series process data group that defines the furnace atmosphere temperature and the exhaust gas temperature, respectively.
  • a time-series process data group that defines each of the exhaust gas flow rate, the combustion air flow rate, the furnace pressure, the O 2 concentration in the exhaust gas, the CO concentration, and the NO X concentration.
  • step S130D differs from the processing of step S130C in the second implementation example.
  • the difference is that one or more process state parameters with the same sampling interval are grouped into two or more groups.
  • the data processing device 200 combines all the n-dimensional feature amounts obtained for each charge from each of at least one process state parameter belonging to the same group to generate a combined feature amount for each group.
  • the third implementation example among the plurality of process state parameters acquired at a sampling interval of 1 second, two of the exhaust gas flow rate and the combustion air flow rate are in group A, the furnace pressure is in group B, and the O 2 in the exhaust gas is in group B. Three are assigned to Group C: Concentration, CO Concentration, and NO X Concentration. Furnace atmosphere temperature and exhaust gas temperature, which are process state parameters acquired at sampling intervals of 1 minute, are assigned to Group D.
  • step S132 the data processing device 200 combines all the 18-dimensional feature amounts extracted from each of the process state parameters of the exhaust gas flow rate and the combustion air flow rate belonging to Group A to generate a group A combined feature amount.
  • the dimension of the combined feature amount of group A is 36 dimensions.
  • the data processing device 200 combines all the 18-dimensional feature amounts extracted from the process state parameters of the furnace pressure belonging to Group B to generate the combined feature amount of Group B.
  • the dimension of the combined feature amount of group B is 18, which is the same as the dimension of the feature amount of the reactor pressure.
  • the data processing device 200 combines all the 18-dimensional feature amounts extracted from each of the process state parameters of O2 concentration, CO concentration, and NOx in the exhaust gas belonging to Group C to generate the combined feature amount of Group C. .
  • the dimension of the combined feature amount of group C is 54 dimensions. All the five-dimensional feature values extracted from the process state parameters of the furnace atmosphere temperature and the exhaust gas temperature belonging to Group D are combined to generate the combined feature value of Group D. The dimensions of the combined features of group D are ten.
  • the data processing device 200 applies clustering S131B to the combined feature amount for each group, thereby determining for each group a control pattern including a label indicating to which group each process of m charges belongs.
  • the clustering in this implementation is GMM.
  • GMM can classify input n-dimensional feature values into 10 groups.
  • the data processing device 200 applies GMM to the 36-dimensional combined feature quantity of group A to generate an m-dimensional control pattern vector including control pattern A for each charge.
  • the data processing device 200 applies GMM to the 18-dimensional combined feature quantity of group B to generate an m-dimensional control pattern vector including control pattern B for each charge.
  • the data processing device 200 generates an m-dimensional control pattern vector including the control pattern C for each charge by applying the GMM to the 54-dimensional combined feature quantity of group C.
  • the data processing device 200 applies clustering to the 10-dimensional combined feature quantity of the group D to generate an m-dimensional control pattern vector including the control pattern D for each charge.
  • each of the control patterns A to D includes 10 patterns of labels AA to JJ.
  • Control pattern A is a control pattern relating to burner control
  • control pattern B is a control pattern relating to furnace pressure pattern
  • control pattern C is a control pattern relating to the concentration of components in exhaust gas
  • pattern D is a control pattern relating to temperature. It's a pattern.
  • step S130E the data processing device 200 applies machine learning to the time-series process data group that defines at least one of the one or more process state parameters, and patterns each process of m charges. determine the process pattern. More specifically, the data processing device 200 applies encoding processing and clustering to a time-series process data group that defines one of the main process state parameters, so that each process of m charges corresponds to which Determine process patterns that contain labels indicating whether they belong to a group.
  • a dominant process state parameter refers to a parameter that directly governs the dissolution process among one or more process state parameters. For example, the amount of dross generated in a melting furnace is greatly controlled by the opening and closing of the furnace cover, ON/OFF of the burner, and the like. Therefore, in the present embodiment, parameters reflecting this are used as main process state parameters.
  • An example of a primary process state parameter is combustion gas flow.
  • FIG. 14 is a diagram for explaining the process of applying encoding processing and clustering to a time-series process data group defining main process state parameters to generate an m-dimensional process pattern vector 530.
  • FIG. 14 is a diagram for explaining the process of applying encoding processing and clustering to a time-series process data group defining main process state parameters to generate an m-dimensional process pattern vector 530.
  • step S130E the data processing device 200 applies encoding processing and clustering to the time-series process data group that defines one of the main process state parameters among the one or more process state parameters, m A process pattern is determined that includes a label indicating to which group each process of the batch charge belongs.
  • the encoding process in this implementation example is VAE
  • the clustering is the k-means method.
  • the process pattern includes, for example, four types of patterns labeled AAA to DDD.
  • a process pattern relates to the work required in the melting process.
  • a process pattern is obtained by patterning a group of time-series process data that defines main process state parameters by focusing on the presence/absence of work, the work order, and the combination of work timing, and extracting features.
  • the control pattern described above can include information about work, but differs from the process pattern in that it includes information other than information about work, such as the control state of the melting furnace.
  • the data processing device 200 applies VAE to the time-series process data group that defines the combustion gas flow rate, and extracts, for example, a two-dimensional feature quantity from the process state parameters of the combustion gas flow rate for each charge.
  • the data processing device 200 applies the k-means method to the extracted two-dimensional feature amount to determine a process pattern including a label indicating to which group each process of m charges belongs.
  • the data processor 200 generates an m-dimensional process pattern vector 530 containing process patterns for each charge.
  • FIG. 15 exemplifies a table containing the predicted dross generation amount per charge output from the prediction model.
  • the learning data set in this implementation includes m-dimensional process pattern vectors in addition to process target parameters, disturbance parameters, and m-dimensional control pattern vectors.
  • the result may be different from, for example, the classification by the worker, and it is possible to objectively extract the process pattern. This can improve the prediction accuracy of the amount of dross generated.
  • a method of generating a learned predictive model includes obtaining one or more other process state parameters that are different from the one or more process state parameters, and classical A step of extracting the feature amount by a method can be further included.
  • Other process state parameters differ from the process state parameters such as exhaust gas flow rate, combustion air flow rate, and combustion gas flow rate described above.
  • Other process state parameters are, for example, the flue gas composition values of the smelting furnace or the flue gas temperature.
  • a training data set can be generated based on the extracted n-dimensional features and the features extracted by the classical method.
  • FIG. 16 is a flow chart showing a processing procedure according to the fourth implementation example.
  • the fourth implementation example differs from the first implementation example in that a learning data set is generated based on the n-dimensional feature amount extracted by applying machine learning and the feature amount extracted by the classical method. differ. Differences will be mainly described below.
  • Another process state parameter in the fourth implementation example is the component value of the flue gas of the melting furnace.
  • the processing flow according to the fourth implementation example comprises a step of continuously analyzing the component values of the combustion exhaust gas of the melting furnace and acquiring analysis data of the exhaust gas component values (S171); A step (S172) of extracting the feature quantity of the exhaust gas component value by a classical method. Examples of classical methods are those based on theory or empirical rules.
  • step S171 the data processing device 200, for example, based on the output value output from the combustion exhaust gas analyzer including the gas sensor 708, for example, O 2 , CO, CO 2 , NOx and other various combustion exhaust gas component values. get a group of data. For example, consecutive groups of data can be acquired for each charge.
  • the data processing device 200 analyzes the continuous data group and acquires analysis data of each exhaust gas component value.
  • An example of a gas component value is the concentration of the gas component.
  • the data processing device 200 in this implementation analyzes a continuous data group of the component values of the flue gas of O 2 , CO, and NO X to obtain analysis data of O 2 concentration, CO concentration, and NO X concentration. .
  • step S172 the data processing device 200 extracts the feature quantity of the exhaust gas component value during burner combustion for each exhaust gas component from the analysis data acquired for each exhaust gas component.
  • the feature quantity of the exhaust gas component value is represented by, for example, a one-dimensional feature vector.
  • the feature value of the exhaust gas component value for example, the median value of the analysis values obtained by analyzing the data obtained during burner combustion can be used.
  • step S140 the data processing device 200 generates a learning data set based on the n-dimensional feature quantity extracted by applying machine learning and the feature quantity of exhaust gas component values extracted by the classical method.
  • the data processing device 200 in this implementation example creates a learning data set including the l ⁇ m ⁇ n-dimensional feature vector 510 generated in step S130, the process target parameter, the disturbance parameter, and the feature amount of the exhaust gas component value extracted in step S172. Generate.
  • exhaust gas component values are special process data, it is preferable to extract feature values using classical methods rather than machine learning. Therefore, this implementation treats flue gas component values separately from the process state parameters described above. However, the flue gas component value may be treated as one of the process state parameters, and the feature amount may be extracted by applying machine learning to the flue gas component value as described in the first implementation example.
  • step S150 the data processing device 200 trains the prediction model using the learning data set generated in step S140 to generate a trained model.
  • Runtime> By inputting input data including control pattern candidates, process pattern candidates, etc. into the above-described learned model, the amount of dross generated in the melting furnace can be predicted, and control patterns and A process pattern can be output.
  • a predetermined reference value can be set as a target value for the amount of dross generated.
  • FIG. 17 is a diagram illustrating a process of inputting input data into a trained model and outputting output data including predicted values of dross generation amount or melting yield.
  • run-time inputs include control pattern candidates, process pattern candidates, and process basic information set for each charge from raw material charging to completion of melting.
  • receiving input data including one or more process target parameters and one or more disturbance parameters inputting the input data to a trained model and outputting a predicted dross generation rate per charge; including.
  • the learning data set used for learning the prediction model does not contain disturbance parameters
  • the input data at runtime does not contain disturbance parameters.
  • the input data will be described as including disturbance parameters.
  • a trained model can be generated, for example, according to the first to fourth implementation examples described above.
  • the learning data set used for training the prediction model includes one or more process target parameters including the data range of the process target parameters included in the input data, and one or more including the data range of the disturbance parameters included in the input data.
  • one or more process target parameters in the input data are selected from a data range of one or more process target parameters contained in the training data set.
  • one or more disturbance parameters in the input data are selected from the data range of one or more disturbance parameters contained in the training data set.
  • control pattern candidates and process pattern candidates will be explained.
  • Control pattern candidates include all control patterns generated in preprocessing when generating a prediction model. When four types of control patterns (patterns AA, BB, CC, and DD) are generated in preprocessing, all four patterns can be control pattern candidates. Depending on the process target parameter, process pattern, and disturbance parameter included in the input data, the control pattern with the highest dross generation amount may differ. Therefore, in this embodiment, a method of selecting a desired control pattern from control pattern candidates is adopted in order to optimize the control pattern according to changes in the process target parameter, process pattern, and disturbance parameter.
  • a desired control pattern means a control pattern in which the amount of generated dross satisfies a predetermined reference value, that is, a target value.
  • a process pattern candidate is a process pattern selected by the operator as a selectable pattern candidate in the dissolution process from among the process patterns generated in the preprocessing when generating the prediction model.
  • Process pattern candidates are used in a restrictive sense when selecting a desired control pattern.
  • a worker can select one or more process pattern candidates according to, for example, a work schedule.
  • the process patterns generated in the pretreatment are AAA pattern (number of times of material charging: 1 time, furnace cleaning: none), BBB pattern (number of times of material charging: 1 time, furnace cleaning: yes), When including 4 patterns of CCC pattern (number of material charging: 2 times, furnace cleaning: no), DDD pattern (material charging: 2 times, furnace cleaning: yes), material charging in the melting process
  • AAA pattern number of times of material charging: 1 time, furnace cleaning: none
  • BBB pattern number of times of material charging: 1 time, furnace cleaning: yes
  • CCC pattern number of material charging: 2 times, furnace cleaning: no
  • DDD pattern material charging: 2 times, furnace cleaning: yes
  • material charging in the melting process Consider a case where the number of turns is arbitrary and no hearth cleaning is required.
  • the operator can select the AAA pattern and the CCC pattern as selectable pattern candidates via the input device 210 of the data processing device 200 .
  • the output data associates all combinations of control pattern candidates and process pattern candidates with predicted dross generation amounts.
  • This predicted value of the amount of generated dross is a predicted value for each charge.
  • the data processor 200 selects a combination of control pattern candidates and process pattern candidates whose dross generation amount satisfies the target value as a desired control pattern and process pattern from among the eight combinations.
  • the data processing device 200 may output and display the selected control pattern and process pattern on the display device 220, or may output them to a log file, for example.
  • the result of selecting the control pattern candidate BB and the process pattern candidate CCC as the desired control pattern and process pattern that satisfy the target value is displayed.
  • Example The inventor of the present application examined the prediction accuracy of the amount of generated dross in the first to fourth implementation examples by comparing them with comparative examples.
  • an average value was calculated from the time-series process data defining the process state parameters and used as the representative value for the input data.
  • the amount of generated dross was predicted by multiple regression, and the prediction accuracy was calculated.
  • FIGS. 18 and 19A to 19D are graphs showing evaluation results of prediction accuracy in comparative examples and first to fourth implementation examples, respectively.
  • the horizontal axis of the graph indicates the standardized dross generation amount actual value (au), and the vertical axis indicates the standardized dross generation amount predicted value (au).
  • the coefficient of determination R2 in the comparative example was 0.00.
  • the mean absolute error (MAE) was 0.85 and the mean squared error (MSE) was 1.14.
  • the coefficients of determination R2 for the first through fourth implementations were 0.17, 0.15, 0.18 and 0.24, respectively.
  • the mean absolute error (MAE) for the first through fourth implementations is 0.71, 0.78, 0.76, 0.66, respectively, and the mean squared error (MSE) is 0.85, respectively. , 1.00, 0.96 and 0.73.
  • the coefficients of determination R2 of the first to fourth implementation examples all exceeded the coefficient of determination R2 of the comparative example.
  • the fourth implementation example is considered to be one of the most suitable models for accurately predicting the amount of dross generated.
  • Dross by using a prediction model generated by integrating encoding processing such as CAE and VAE, clustering such as GMM and k-means, and a supervised prediction model such as a neural network, Dross It is possible to predict the generation amount or dissolution yield with high accuracy. In addition, under the desired furnace operation schedule and material input amount, it is possible to use the learned model to recommend control patterns and process patterns for maximizing the amount of dross generated or melting yield. Operation of the melting furnace.
  • a support system is provided.
  • the technology of the present disclosure is widely used in a support system that selects the operating conditions of a melting furnace using a learned model, in addition to generating a prediction model that predicts the amount of dross generated in a melting furnace used to manufacture alloy materials. obtain.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Organic Chemistry (AREA)
  • Materials Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Metallurgy (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Waste-Gas Treatment And Other Accessory Devices For Furnaces (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Manufacture And Refinement Of Metals (AREA)

Abstract

学習済みモデルを生成する方法は、プロセス状態パラメータを1チャージ毎に取得するステップ(S110)、m回分(mは2以上の整数)のチャージにおいて取得した1または複数のプロセス状態パラメータのデータセットに機械学習を適用して前処理を実行するステップ(S130)、学習データセットを生成するステップ(S140)、および、学習済みモデルを生成するステップ(S150)を含む。学習データセットは、前処理において抽出したn(nは1以上の整数)次元特徴量に基づいて生成され、少なくとも、1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含む。

Description

溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム
 本開示は、溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラムに関する。
 鉄鋼業および非鉄金属業における溶解プロセスの省エネルギー化が望まれている。溶解プロセスにおいて、溶解炉(高炉)を用いた溶解プロセスの条件は、種々の要因によって異なるが、これまでは、作業員の経験やトライアンドエラーに依存するところが大きかった。そのため、エネルギーや材料を無駄に消費することがあった。
 近年のICT技術の進展に伴って、データを利用して、溶解プロセスを最適化する方法が検討されている。例えば、特許文献1には、高炉設備に設置した各種センサにより計測された時系列データからプロセス変数を抽出して検索用テーブルに格納し、検索テーブルから類似度の高いプロセス変数を検索し、過去の類似の溶解プロセスの事例に基づいて、溶解プロセスの将来の状態を予測する方法を開示している。
特開2007-4728号公報
 特許文献1に記載の方法によると、時系列データから抽出されるプロセス変数を用いるので、その時刻に求められるプロセス変数を高速かつ高精度で求め、過去の類似の溶解プロセスの事例に基づいて、溶解プロセスの将来の状態を予測することが可能となる。
 しかしながら、特許文献1に記載の方法に用いる推論アルゴリズムは、過去の類似の溶解プロセスを検索する事例検索ベースである。そのため、得られるプロセス変数は、過去の実績の範囲内、かつ、その類似事例の近傍でしかない。したがって、類似事例の近傍にない範囲の解を得ることが困難となる。
 本発明は、上記の課題に鑑みてなされたものであり、その目的は、溶解炉において発生するドロス量(以下、「ドロス発生量」と記載する場合がある。)を予測する学習済み予測モデルの生成方法、当該予測モデルを利用してドロス発生量を予測する方法、および、当該予測モデルを利用して、所望のドロス発生量を満足する溶解炉の運転条件の選定を支援することが可能となるシステムを提供することにある。
 本開示の溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法は、非限定的で例示的な実施形態において、原料装入から溶解完了までの1チャージ毎に、属性が異なる1または複数のプロセス状態パラメータを取得するステップであって、それぞれのプロセス状態パラメータは、前記溶解炉に設置された各種センサからの出力に基づいて取得される連続的な時系列データ群によって規定されるステップと、m回分(mは2以上の整数)のチャージにおいて取得した前記1または複数のプロセス状態パラメータのデータセットに機械学習を適用して前処理を実行するステップであって、前記前処理は、1チャージ毎に取得した時系列データ群を含むそれぞれのプロセス状態パラメータからn次元特徴量(nは1以上の整数)を抽出することを含むステップと、抽出したn次元特徴量に基づいて学習データセットを生成するステップであって、前記学習データセットは、少なくとも、1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含むステップと、生成された前記学習データセットを用いて予測モデルを訓練し、前記ドロス発生量を予測する前記学習済み予測モデルを生成するステップと、を包含する。
 本開示の溶解炉において発生するドロス量を予測する方法は、非限定的で例示的な実施形態において、ランタイムの入力として、制御パターン候補、プロセスパターン候補、および原料装入から溶解完了までの1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含む入力データを受け取るステップと、予測モデルに前記入力データを入力して、1チャージ毎の予測ドロス発生量を出力するステップと、を含み、前記予測モデルは、属性が異なる1または複数のプロセス状態パラメータから抽出されるn次元特徴量に基づいて生成される学習データセットを利用して学習された学習済みモデルであり、前記1または複数のプロセス状態パラメータのそれぞれは、前記溶解炉に設置された各種センサからの出力に基づいて1チャージ毎に取得される連続的な時系列データ群によって規定され、前記学習データセットは、前記入力データに含まれる前記プロセスターゲットパラメータのデータ範囲を含む1または複数のプロセスターゲットパラメータを含む。
 本開示のコンピュータプログラムは、非限定的で例示的な実施形態において、溶解炉において発生するドロス量を予測する予測モデルを取得するステップと、制御パターン候補、プロセスパターン候補、および原料装入から溶解完了までの1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含む入力データを受け取るステップと、前記予測モデルに前記入力データを入力して、1チャージ毎の予測ドロス発生量を出力するステップと、をコンピュータに実行させ、前記予測モデルは、属性が異なる1または複数のプロセス状態パラメータから抽出されるn次元特徴量に基づいて生成される学習データセットを利用して学習された学習済みモデルであり、前記1または複数のプロセス状態パラメータのそれぞれは、前記溶解炉に設置された各種センサからの出力に基づいて1チャージ毎に取得される連続的な時系列データ群によって規定され、前記学習データセットは、前記入力データに含まれる前記プロセスターゲットパラメータを含む1または複数のプロセスターゲットパラメータを含む。
 本開示の例示的な実施形態は、溶解炉におけるドロス発生量を予測する学習済み予測モデルの生成方法、当該予測モデルを利用してドロス発生量を予測する方法、および、当該予測モデルを利用して、所望のドロス発生量を満足する溶解炉の運転条件の選定を支援することが可能となるシステムを提供する。
図1は、溶解炉の構成を例示する模式図である。 図2は、本開示の実施形態に係る溶解炉の運転支援システムの概略構成を例示するブロック図である。 図3は、本開示の実施形態に係るデータ処理装置のハードウェア構成例を示すブロック図である。 図4は、膨大なデータを格納したデータベースを有するクラウドサーバーの構成例を示すハードウェアブロック図である。 図5は、本開示の実施形態に係る、溶解炉におけるドロス発生量を予測する学習済み予測モデルを生成する処理手順を例示すチャートである。 図6は、第1の実装例による処理手順を示すフローチャートである。 図7は、プロセス状態パラメータ群に符号化処理を適用し、n次元特徴ベクトルを抽出する処理を説明するための図である。 図8は、ニューラルネットワークの構成例を示す図である。 図9は、予測モデルから出力される1チャージ毎の予測ドロス発生量を含むテーブルを例示する。 図10は、第2の実装例による処理手順を示すフローチャートである。 図11は、l×m×n次元特徴ベクトルにクラスタリングを適用し、m次元制御パターンベクトルを生成する処理を説明するための図である。 図12は、予測モデルから出力される1チャージ毎の予測ドロス発生量を含むテーブルを例示する。 図13は、第3の実装例による処理手順を示すフローチャートである。 図14は、主のプロセス状態パラメータを規定する時系列プロセスデータ群に符号化処理およびクラスタリングを適用し、m次元プロセスパターンベクトルを生成する処理を説明するための図である。 図15は、予測モデルから出力される1チャージ毎の予測ドロス発生量を含むテーブルを例示する。 図16は、第4の実装例による処理手順を示すフローチャートである。 図17は、学習済みモデルに入力データを入力し、ドロス発生量の予測値を含む出力データを出力する処理を例示する図である。 図18は、比較例における予測精度の評価結果を示すグラフである。 図19Aは、第1の実装例における予測精度の評価結果を示すグラフである。 図19Bは、第2の実装例における予測精度の評価結果を示すグラフである。 図19Cは、第3の実装例における予測精度の評価結果を示すグラフである。 図19Dは、第4の実装例における予測精度の評価結果を示すグラフである。
 アルミニウム合金(以降、「アルミ合金」と表記する。)などの合金材料は、多種のプロセスを含む複数の製造プロセスを経て製造される。例えば、アルミ合金を半連続(DC)鋳造するための製造プロセスは、溶解炉で材料を溶解するプロセス、保持炉で溶湯を保持し、成分調整や温度調整を行うプロセス、連続脱ガス装置を用いて水素ガスを脱ガスするプロセス、RMF(Rigid Media Tube Filter)を利用して介在物を除去するプロセス、および、スラブを鋳造するプロセスを含み得る。溶解プロセスは、溶解炉に材料を装入した後、HOT材や冷材料を追加的に装入する処理(材料の再利用)、ドロスを除去する処理、再加熱をする処理など更なるプロセスを含み得る。この一連の工程はインライン工程である。
 本願発明者の検討によれば、インライン工程において、溶解プロセスの最適化は後工程の影響を受けるので複雑である。また、物理モデルによるシミュレーションには限界があり、シミュレーションによるプロセスの最適化は困難である。
 材料メーカは、例えば数年、10年、20年またはそれ以上の長い年月の間、製造の段階で取得された膨大な時系列プロセスデータをデータベースに蓄積し得る。時系列プロセスデータは、設計・開発の情報や、製造時の気候データ、試験データなどに関連付けされてデータベースに蓄積され得る。このようなデータ群はビッグデータと称される。しかしながら、材料メーカにおいて、現状、ビッグデータが有効に活用されるには至っていない。
 このような課題に鑑み、本願発明者は、既存のビッグデータを活用して構築するデータ駆動型のドロス発生量の予測モデルを利用し、溶解プロセスの条件を最適化することが可能な新規な手法を考案するに至った。
 以下、添付の図面を参照しながら、本開示による溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法および運転支援システムを詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明および実質的に同一の構成または処理に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。また、実質的に同一の構成または処理に同一の参照符号を付す場合がある。
 以下の実施形態は例示であり、本開示による溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法および運転支援システムは、以下の実施形態に限定されない。例えば、以下の実施形態で示される数値、形状、材料、ステップ、そのステップの順序などは、あくまでも一例であり、技術的に矛盾が生じない限りにおいて種々の改変が可能である。また、技術的に矛盾が生じない限りにおいて、一の態様と他の態様とを組み合わせることが可能である。
 図1は、溶解炉700の構成を例示する模式図である。本実施形態における溶解炉700は、上方から材料703を装入するトップチャージ式である。高速バーナー701から噴射される炎702を材料に直接あてることによって、材料を溶解する。1または複数のセンサが溶解炉に設置され得る。図示される例おいて、溶解炉700の煙道704から排出される排ガスの流量を計測する流量センサ705A、燃焼排ガスに含まれる特定の成分を検出するガスセンサ708、高速バーナー701における燃焼空気の流量を計測する流量センサ705B、高速バーナー701における燃焼ガスの流量を計測する流量センサ705C、溶解炉700内の圧力を計測する圧力センサ706、および、溶解炉700内の炉内雰囲気の温度を計測する温度センサ707が溶解炉700に設置される。
 各種センサは所定のサンプリング間隔でデータを計測する。所定のサンプリング間隔の例は、1秒または1分である。各種センサによって計測されたデータは、例えばデータベース100に格納される。各種センサとデータベースとの間の通信は、例えばWi-Fi(登録商標)規格に準拠した無線通信によって実現される。
 ここで、本明細書に記載する用語を定義する。
 本実施形態における溶解炉における溶解歩留は、溶解時に装入した装入材の重量Aに対する、装入材の重量Aから発生したドロスの重量(ドロス発生量)Bを減算した重量の割合(A-B)/Aを意味する。したがって、ある溶解装入量において発生するドロス量を予測することができれば、溶解歩留を予測することができる。ドロスは、溶湯中あるいは表面に浮上している厚膜状または塊状の金属酸化物(または不純物)である。本開示の実施形態におけるドロスの例は、アルミドロスである。アルミニウムの溶解工程においては、不純物としてアルミドロスが発生する。アルミドロスにはアルミニウムが60~80%程度含まれているとされており、アルミドロスからアルミニウムを回収して再利用する技術の開発が進められている。
 溶解炉700に設置された各種センサからの出力に基づいて取得される時系列データを「プロセスデータ」と呼ぶ。プロセスデータの例は、排ガス流量(m/h)、燃焼空気流量(m/h)、燃焼ガス流量(m/h)、炉内圧力(kPa)、炉内雰囲気温度(℃)、または排ガス分析濃度(%)である。
 原料装入から溶解完了までの1チャージ毎に取得される連続的な時系列データ群を「プロセス状態パラメータ」と呼ぶ。言い換えると、プロセス状態パラメータは1チャージ毎に取得されるプロセスデータの連続的な時系列データ群によって規定される。プロセス状態パラメータの例は、プロセスデータと同様に、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、炉内雰囲気温度である。
 1チャージ毎に設定される溶解プロセスの基本情報を示すデータを「プロセスターゲットパラメータ」と呼ぶ。プロセスターゲットパラメータの例は、材料装入量(ton)、HOT材装入量(ton)、溶解時間(min)、炉床掃除を実施するチャージから起算したチャージ数(番目)、Mg濃度(%)を含む溶湯成分(%)、Mg母合金添加量(ton)である。プロセスターゲットパラメータは、非時系列データであり、固有値として与えられる。プロセスターゲットパラメータは、前述したデータ以外に、例えば、装入材料の状態に関するデータ(形状、酸化膜厚み、表面付着物)や、溶解時に用いる除滓フラックスに関するデータを含み得る。
 本明細書では、炉床掃除を実施するチャージから起算されるチャージ数を、「清掃ファクタ」と呼ぶ。炉床掃除を実施するチャージを起点として、次に続くチャージが1番目、その次に続くチャージが2番目であり、以降、3番目、4番目、…と続く。一般に、十数チャージに1回の頻度で炉床の掃除が行われ、壁面や床に付着したドロスが除去される。したがって、炉床掃除を実施するチャージ直後のチャージにおいてはドロス量が少なく、チャージ数が増えるとドロス量が増加する傾向にあることが予測される。この点を考慮し、清掃ファクタをプロセスターゲットパラメータに導入している。
 外部環境因子を含むパラメータを「外乱パラメータ」と呼ぶ。外乱パラメータの例は、1時間ごとの平均気温(℃)や平均相対湿度(%)などの気候データである。気候データは時系列データである。外乱パラメータは、気候データ以外に、例えば、作業者や作業グループに関するデータ、作業時刻等を含み得る。
 図2は、本実施形態に係る溶解炉の運転支援システム1000の概略構成を例示するブロック図である。溶解炉の運転支援システム(以降、簡単に「システム」と表記する。)1000は、複数のセンサからの出力に基づいて取得された複数の時系列プロセスデータを記憶したデータベース100およびデータ処理装置200を備える。本実施形態において、データベース100は、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、炉内雰囲気温度、排ガス分析濃度および排ガス温度のそれぞれについての、複数回のチャージで取得されたプロセス状態パラメータ群を格納する。データベース100は、1チャージ毎の材料装入量、溶解時間のプロセスターゲットパラメータを格納し得る。さらに、データベース100は、例えば、平均気温などの気候データをプロセスターゲットパラメータと関連付けて格納することができる。データ処理装置200は、データベース100に蓄積された膨大なデータにアクセスして、属性が異なる1または複数のプロセス状態パラメータおよび1または複数のプロセスターゲットパラメータを取得するこができる。
 データベース100は、半導体メモリ、磁気記憶装置または光学記憶装置などの記憶装置である。
 データ処理装置200は、データ処理装置の本体201および表示装置220を備える。例えば、データベース100に蓄積されたデータを活用して溶解炉におけるドロス発生量を予測する予測モデルを生成するために利用されるソフトウェア(またはファームウェア)、および、ランタイムにおいて学習済みの予測モデルを利用してドロス発生量を予測するためのソフトウェアが、データ処理装置の本体201に実装されている。そのようなソフトウェアは、例えば光ディスクなど、コンピュータが読み取り可能な記録媒体に記録され、パッケージソフトウェアとして販売され、または、インターネットを介して提供され得る。
 表示装置220は、例えば液晶ディスプレイまたは有機ELディスプレイである。表示装置220は、例えば、本体201から出力される出力データに基づいてチャージ毎のドロス発生量の予測値を表示する。
 データ処理装置200の典型例は、パーソナルコンピュータである。または、データ処理装置200は、溶解炉の運転支援システムとして機能する専用の装置であり得る。
 図3は、データ処理装置200のハードウェア構成例を示すブロック図である。データ処理装置200は、入力装置210、表示装置220、通信I/F230、記憶装置240、プロセッサ250、ROM(Read Only Memory)260およびRAM(Random Access Memory)270を備える。これらの構成要素は、バス280を介して相互に通信可能に接続される。
 入力装置210は、ユーザからの指示をデータに変換してコンピュータに入力するための装置である。入力装置210は、例えばキーボード、マウスまたはタッチパネルである。
 通信I/F230は、データ処理装置200とデータベース100との間でデータ通信を行うためのインタフェースである。データが転送可能であればその形態、プロトコルは限定されない。例えば、通信I/F230は、USB、IEEE1394(登録商標)、またはイーサネット(登録商標)などに準拠した有線通信を行うことができる。通信I/F230は、Bluetooth(登録商標)規格および/またはWi-Fi規格に準拠した無線通信を行うことができる。いずれの規格も、2.4GHz帯または5.0GHz帯の周波数を利用した無線通信規格を含む。
 記憶装置240は、例えば磁気記憶装置、光学記憶装置、半導体記憶装置またはそれらの組み合わせである。光学記憶装置の例は、光ディスクドライブまたは光磁気ディスク(MD)ドライブなどである。磁気記憶装置の例は、ハードディスクドライブ(HDD)、フロッピーディスク(FD)ドライブまたは磁気テープレコーダである。半導体記憶装置の例は、ソリッドステートドライブ(SSD)である。
 プロセッサ250は、半導体集積回路であり、中央演算処理装置(CPU)またはマイクロプロセッサとも称される。プロセッサ250は、ROM260に格納された、予測モデルを訓練したり、学習済みモデルを活用したりするための命令群を記述したコンピュータプログラムを逐次実行し、所望の処理を実現する。プロセッサ250は、CPUを搭載したFPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)またはASSP(Application Specific Standard Product)を含む用語として広く解釈される。
 ROM260は、例えば、書き込み可能なメモリ(例えばPROM)、書き換え可能なメモリ(例えばフラッシュメモリ)、または読み出し専用のメモリである。ROM260は、プロセッサの動作を制御するプログラムを記憶している。ROM260は、単一の記録媒体である必要はなく、複数の記録媒体の集合であり得る。複数の集合体の一部は取り外し可能なメモリであってもよい。
 RAM270は、ROM260に格納された制御プログラムをブート時に一旦展開するための作業領域を提供する。RAM270は、単一の記録媒体である必要はなく、複数の記録媒体の集合であり得る。
 以下、本開示のシステム1000の代表的な構成例を幾つか説明する。
 ある構成例において、システム1000は、図2に示すデータベース100およびデータ処理装置200を備える。データベース100は、データ処理装置200とは異なる別のハードウェアである。または、膨大なデータを記憶した光ディスクなどの記憶媒体をデータ処理装置の本体201に読み込むことによって、データベース100の代わりに記憶媒体にアクセスして膨大なデータを読み出すことが可能となる。
 図4は、膨大なデータを格納したデータベース340を有するクラウドサーバー300の構成例を示すハードウェアブロック図である。
 他の構成例において、システム1000は、図4に示すように、1または複数のデータ処理装置200およびクラウドサーバー300のデータベース340を備える。クラウドサーバー300は、プロセッサ310、メモリ320、通信I/F330およびデータベース340を有する。膨大なデータは、クラウドサーバー300上のデータベース340に格納され得る。例えば、複数のデータ処理装置200は、社内に構築されたローカルエリアネットワーク(LAN)400を介して接続され得る。ローカルエリアネットワーク400は、インターネットプロバイダサービス(IPS)を介してインターネット350に接続される。個々のデータ処理装置200は、インターネット350を経由してクラウドサーバー300のデータベース340にアクセス可能である。
 システム1000は、1または複数のデータ処理装置200およびクラウドサーバー300を備え得る。その場合において、データ処理装置200が備えるプロセッサ250に代えて、あるいはプロセッサ250と協働して、クラウドサーバー300が備えるプロセッサ310は、予測モデルを訓練したり、学習済みモデルを活用したりするための命令群を記述したコンピュータプログラムを逐次実行することができる。または、例えば、同一のLAN400に接続された複数のデータ処理装置200が、そのような命令群を記述したコンピュータプログラムを協働して実行してもよい。このように複数のプロセッサに分散処理をさせることにより、個々のプロセッサに対する演算負荷を低減することが可能となる。
 <1.学習済み予測モデルの生成>
 図5は、本実施形態における溶解炉におけるドロス発生量を予測する学習済み予測モデルを生成する処理手順を例示するチャートである。以下、学習済み予測モデルは「学習済みモデル」と記載する。
 本実施形態による学習済みモデルは、アルミ合金の製造に用いる溶解炉におけるドロス発生量を予測する。ただし、学習済みモデルは、アルミ合金以外の合金材料の製造に用いる溶解炉におけるドロス発生量を予測することにも利用され得る。さらに、上述したように、ドロス発生量の予測値および装入材の重量に基づいて溶解歩留を予測することが可能である。このため、本実施形態による学習済みモデルは、溶解歩留を予測する予測モデルと呼んでもよい。
 本実施形態による学習済みモデルを生成する方法は、プロセス状態パラメータを1チャージ毎に取得するステップS110、m回チャージ分(mは2以上の整数)のプロセス状態パラメータ群を取得したか否かを判定するステップS120、前処理を実行するステップS130、学習データセットを生成するステップS140、および学習済みモデルを生成するステップS150を含む。
 各処理(またはタスク)を実行する主体は、1または複数のプロセッサである。1のプロセッサが1または複数の処理を実行してもよいし、複数のプロセッサが協働して1または複数の処理を実行してもよい。各処理は、ソフトウェアのモジュール単位でコンピュータプログラムに記述される。ただし、FPGAなどを用いる場合、これらの処理の全部または一部は、ハードウェア・アクセラレータとして実装され得る。以下の説明において、それぞれのステップを実行する主体は、プロセッサ250を備えるデータ処理装置200とする。
 ステップS110において、データ処理装置200がデータベース100にアクセスし、原料装入から溶解完了までの1チャージ毎の、属性が異なる1または複数のプロセス状態パラメータを取得または獲得する。本実施形態において、データ処理装置200は、データベース100内に格納された、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、炉内雰囲気温度、排ガス中のO濃度、CO濃度、NO濃度および排ガス温度のそれぞれのプロセスデータ群にアクセスし、プロセス状態パラメータを1チャージ毎に獲得する。つまり、プロセス状態パラメータとして、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、炉内雰囲気温度、排ガス中のO濃度、CO濃度、NO濃度および排ガス温度の9つが1チャージ毎に取得される。
 データ処理装置200は、複数チャージの時系列プロセスデータ群がデータベース100に格納された後にデータベース100にアクセスし、複数チャージのプロセス状態パラメータ群を一括して取得し得る(オフライン処理)。または、データ処理装置200は、1チャージの時系列プロセスデータ群がデータベース100に格納されたら、その都度、データベース100にアクセスし、1チャージのプロセス状態パラメータを取得し得る(オンライン処理)。
 ステップS120において、データ処理装置200は、m回チャージ分のプロセス状態パラメータ群を取得するまで、ステップS110を繰り返して実行する。本実施形態におけるチャージ回数mは、例えば1000回程度である。データ処理装置200は、m回チャージ分のプロセス状態パラメータ群を含むデータセットを取得すると、次のステップS130に進む。データセットは、m回分のチャージにおいて取得された、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、炉内雰囲気温度、排ガス中のO濃度、CO濃度、NO濃度および排ガス温度の9つのプロセス状態パラメータ群を含む。
 ステップ130において、データ処理装置200は、ステップS120において取得したデータセットに機械学習を適用して前処理を実行する。前処理は、属性が異なるそれぞれのプロセス状態パラメータに対し、1チャージ毎に取得した時系列データ群を含むプロセス状態パラメータからn次元特徴量(nは1以上の整数)を抽出する。本明細書において、n次元特徴量はn次元特徴ベクトルと表記される場合がある。
 本実施形態における前処理で適用される機械学習の例は、畳み込みオートエンコーダ(CAE)、変分オートエンコーダ(VAE)などのオートエンコーダ、および、k-means法、c-means法、混合ガウス分布(GMM)、デンドログラム法、スペクトラルクラスタリングまたは確率的潜在意味解析法(PLSAまたはPLSI)などのクラスタリングである。前処理については後で詳細に説明する。
 ステップS140において、データ処理装置200は、1チャージ毎のそれぞれのプロセス状態パラメータから抽出したn次元特徴量に基づいて学習データセットを生成する。学習データセットは、少なくとも、1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含む。学習データセットは、さらに、気候データなどの外部環境因子が含まれる1または複数の外乱パラメータを含むことができる。本実施形態において、学習データセットは、材料装入量、溶解時間の2つのプロセスターゲットパラメータ、および、平均気温や平均相対湿度などの外乱パラメータを含む。ただし、学習データセットは、その他のプロセスターゲットパラメータおよび外乱パラメータを含み得る。ただし、外乱パラメータは必須のパラメータではないが、学習データセットに含めることでドロス発生量の予測精度を向上させることが可能となる。
 ステップS150において、データ処理装置200は、生成された学習データセットを用いて予測モデルを訓練し、学習済みモデルを生成する。本実施形態において、予測モデルは、教師あり予測モデルであり、ニューラルネットワークで構築される。ニューラルネットワークの例は多層パーセプトロン(MLP)である。MLPは順伝播型ニューラルネットワークとも称される。ただし、教師あり予測モデルはニューラルネットワークに限定されず、例えばサポートベクターマシンまたはランダムフォレストなどであってもよい。
 本実施形態における溶解炉におけるドロス発生量を予測する学習済みモデルは、様々な処理手順(つまり、アルゴリズム)に従って生成することが可能である。以下、アルゴリズムの第1から第4の実装例を説明する。第1から第4の実装例において、それぞれ、固有の前処理が実行される。そのようなアルゴリズムを記述した命令群を含むコンピュータプログラムは、例えば、インターネットを介して供給され得る。以下、それぞれの実装例に固有の前処理を主として説明する。
 [第1の実装例]
 図6は、第1の実装例による処理手順を示すフローチャートである。
 第1の実装例による処理フローは、プロセス状態パラメータ群を取得するステップ(S110、S120)、前処理を実行するステップS130A、学習データセットを生成するステップS140および学習済みモデルを生成するステップS150を含む。
 データ処理装置200は、m回チャージ分のプロセス状態パラメータ群を含むデータセットを取得する。本実装例において、データセットは、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、炉内雰囲気温度、排ガス中のO濃度、CO濃度、NO濃度、および排ガス温度の9つの、m回分のチャージにおいて取得されたプロセス状態パラメータ群を含む。
 各種センサのサンプリング間隔は計測対象のデータの属性によって異なる。例えば、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、および排ガス中の成分濃度(例えば、O濃度、CO濃度、NO濃度)のプロセスデータは、流量センサ705や圧力センサ706によってサンプリング間隔1秒で計測され、炉内雰囲気温度および排ガス温度は、温度センサ707によってサンプリング間隔1分で計測される。
 ステップ130において、データ処理装置200は、それぞれのプロセス状態パラメータに対し、1チャージ毎に取得した時系列データ群を含むそれぞれのプロセス状態パラメータに符号化処理S131Aを適用し、n次元特徴量(またはn次元特徴ベクトル)を抽出する。本実施形態では、センサのサンプリング間隔に応じて抽出する特徴量の次元数が異なる。データ処理装置200は、サンプリング間隔1秒で計測された時系列プロセスデータ群で規定されるプロセスパラメータに対し、n次元特徴ベクトルを抽出する。データ処理装置200は、サンプリング間隔1分でサンプリングされた系列プロセスデータで規定されるプロセスパラメータに対し、n次元特徴ベクトルを抽出する。本実装例において、データ処理装置200は、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、排ガス中のO濃度、CO濃度、およびNO濃度のぞれぞれのプロセス状態パラメータから18次元特徴ベクトルを抽出し、炉内雰囲気温度および排ガス温度のそれぞれのプロセス状態パラメータから5次元特徴ベクトルを抽出する。
 図7は、プロセス状態パラメータ群500に符号化処理S131Aを適用し、n次元特徴ベクトルを抽出する処理を説明するための図である。符号化処理S131Aにおいて、オートエンコーダの一種であるCAEまたはVAEのベクトル変換モデルが適用され得る。ここでCAEおよびVAEの概要を説明する。
 オードエンコーダは、入力側の次元圧縮(エンコード)および出力側の次元拡張(デコード)を経て、入力と出力とが一致するようにパラメータを繰り返し学習する機械学習モデルである。オードエンコーダの学習は、教師なし学習または教師あり学習であり得る。CAEは、エンコード部分およびデコード部分に全結合層の代わりに畳み込み層を利用したネットワーク構造を有する。一方、VAEは、N次元正規分布に従う確率変数(潜在変数)として表される中間層を有する。入力データを次元圧縮した潜在変数を特徴量として利用することができる。
 本実装例における符号化処理S131AはVAEである。図7に例示されるように、データ処理装置200は、プロセス状態パラメータ群500にVAEを適用することで、プロセス状態パラメータを規定する時系列プロセスデータ群から1チャージ毎のn次元特徴ベクトルを抽出できる。それぞれのプロセス状態パラメータを規定する、サンプリング間隔1秒で計測された時系列プロセスデータ群は、例えば30000次元特徴量として表現される。30000次元は、1チャージ期間におけるサンプリング数(30000回)に相当する。サンプリング間隔1分で計測された時系列プロセスデータ群は、例えば500次元特徴量として表現される。
 データ処理装置200は、プロセス状態パラメータ群500にVAEを適用することで、1つのプロセス状態パラメータ毎に、m×n次元特徴ベクトルを生成する。プロセス状態パラメータの種類の数をlとすると、全体として、l×m×n次元特徴ベクトル510が生成される。図7に、n次元特徴ベクトルをチャージ毎に配列したm×n次元特徴ベクトルのテーブルが、プロセス状態パラメータ毎に図示されている。
 平均値や積分値、傾きなどの、作業者や熟練者が検討し得る代表値を用いる場合、それらは彼等が検討し得る範囲でしか算出することができないために、漏れが生じる可能性がある。一方で、プロセス状態パラメータ群500に符号化処理を適用することにより、高精度で特徴量を抽出することが可能となり、予期しない特徴量を抽出することも可能となり得る。
 再び、図6を参照する。
 ステップ140において、データ処理装置200は、ステップS130で生成したl×m×n次元特徴ベクトル510、プロセスターゲットパラメータおよび外乱パラメータを含む学習データセットを生成する。本実装例における学習データセットは、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、排ガス中のO濃度、CO濃度、およびNO濃度のぞれぞれのプロセス状態パラメータに関する[m×18]次元特徴ベクトル、炉内雰囲気温度および排ガス温度のそれぞれのプロセス状態パラメータに関する[m×5]次元特徴ベクトル、材料装入量や、HOT材装入量、溶解時間、清掃ファクタ、Mg濃度、Mg母合金添加量などのプロセスターゲットパラメータ、および、1時間ごとの平均気温や平均相対湿度などの外乱パラメータを含む。
 ステップS150において、データ処理装置200は、ステップS140で生成した学習データセットを用いて予測モデルを訓練し、学習済みモデルを生成する。本実装例における予測モデルはMLPである。
 図8は、ニューラルネットワークの構成例を示す図である。図示されるニューラルネットワークは、第1層である入力層から第N層(最終層)である出力層までのN層から構成されるMLPである。N層のうちの第2層から第N-1層までが中間層(「隠れ層」とも称される。)である。入力層を構成するユニット(「ノード」とも称される。)の数は、入力データである特徴量の次元数と同じn個である。すなわち、入力層はn個のユニットから構成される。出力層は1個のユニットから構成される。本実装例において、中間層の数は5個であり、ユニットの総数は300個である。
 MLPにおいて情報が入力側から出力側に一方向に伝播する。1つのユニットは複数の入力を受け取り、1つの出力を計算する。複数の入力を[x、x、x、・・・、x(iは2以上の整数)]とすると、ユニットへの総入力は、それぞれの入力xに異なる重みwを掛けて加算し、これにバイアスbを加算した式1で与えられる。ここで、[w、w、w、・・・、w]は各入力に対する重みである。ユニットの出力zは、総入力uに対する活性化関数と呼ばれる式2の関数fの出力で与えられる。活性化関数は、一般的には単調増加する非線形関数である。活性化関数の例は、ロジスティックシグモイド関数であり、式3で与えられる。式3におけるeはネイピア数である。
[式1]
   u=x+x+x+・・・+w+b
[式2]
   z=f(u)
[式3]
   f(u)=[1/(1+e‐u)]
 各層に含まれる全ユニット同士が層間で結合される。これにより左側の層のユニットの出力が右側の層のユニットの入力になり、この結合を通じて信号が左の層から右の層に一方向に伝播する。重みwおよびバイアスbのパラメータを最適化しながら各層の出力を順番に決定していくことで、出力層の最終的な出力が得られる。
 訓練データとして、ドロス発生量の実績値が用いられる。ニューラルネットワークにおける出力層の出力が実績値に近づくように、損失関数(二乗誤差)に基づいて重みwおよびバイアスbのパラメータが最適化される。本実装例では、例えば10000回の学習が行われる。
 図9は、予測モデルから出力される1チャージ毎の予測ドロス発生量を含むテーブルを例示する。なお、図9には、プロセスターゲットパラメータとして材料装入量が示され、外乱パラメータとして平均気温が示されている。予測モデルを訓練した結果、図9に例示されるように、1チャージ毎のドロス発生量の予測値が出力データとして得られる。あるいは、1チャージ毎の溶解歩留の予測値が出力データに含まれていてもよい。ドロス発生量の予測値は、例えば表示装置220に表示され得る。作業者は、表示装置220に表示されるドロス発生量または溶解歩留の予測値のリストを確認することができ、このドロス発生量または溶解歩留の予測値に基づいて、所望の溶解炉の運転条件を選定することが可能となる。
 本実装例によれば、時系列プロセスデータ群にVAEを適用することで、18次元または5次元特徴ベクトルをプロセス状態パラメータ毎に抽出することが可能となる。VAEとニューラルネットワークを統合して生成した予測モデルを利用することで、ドロス発生量を高精度で予測することが可能となる。さらに、VAEによるデータ生成、つまり、低次元に圧縮された潜在変数を活用することは、時系列的にプロセスの評価を行うことが可能となる点で有益である。例えば、溶解炉の運転条件をプロセスの段階毎にチューニングすることが可能となる。
 [第2の実装例]
 図10は、第2の実装例による処理手順を示すフローチャートである。
 第2の実装例は、n次元特徴量に基づいて制御パターンを生成する点で、第1の実装例とは相違する。以下、相違点を主に説明する。
 データ処理装置200は、それぞれのプロセス状態パラメータを規定する時系列プロセスデータ群を、抽出したn次元特徴量に基づいてパターン化することによって、制御パターンを決定する。
 本実装例における前処理は、プロセス状態パラメータを規定する時系列プロセスデータ群に符号化処理S131Aを適用してn次元特徴量を抽出するステップS130Aと、n次元特徴量にクラスタリングS131Bを適用して制御パターンを生成するステップ130Cと、を含む。ステップS130Aの処理は第1の実装例で説明したとおりである。クラスタリングの例は、GMMまたはK-means法である。本実装例におけるクラスタリングはGMMである。以下、GMMおよびk-means法のそれぞれの代表的なアルゴリズムを簡単に説明する。これらのアルゴリズムは、比較的簡易にデータ処理装置200に実装することができる。
 (混合ガウス分布)
 混合ガウス分布(GMM)は、確率分布に基づく解析法であり、複数のガウス分布の線形結合として表現されるモデルである。モデルは例えば最尤法によってフィッティングされる。特に、データ群の中に複数のまとまりがある場合、混合ガウス分布を用いることにより、クラスタリングを行うことができる。GMMでは、与えられたデータ点から、複数のガウス分布のそれぞれの平均値および分散を算出する。
(i)各ガウス分布の平均値および分散を初期化する。
(ii)データ点に与える重みをクラスタ毎に算出する。
(iii)(ii)によって算出された重みに基づいて、各ガウス分布の平均値および分散を更新する。
(iv)(iii)によって更新された各ガウス分布の平均値の変化が十分に小さくなるまで(ii)および(iii)を繰り返して実行する。
 (k-means法)
 k-means法は、その手法が比較的簡潔であり、また、比較的に大きなデータに適用可能であるために、データ分析において広く利用されている。
(i)複数のデータ点の中から、適当な点をクラスタの数だけ選択して、それらを各クラスタの重心(または代表点)に指定する。データは「レコード」とも称される。
(ii)各データ点と各クラスタの重心との間の距離を算出し、クラスタ数だけ存在する重心の中から、距離が最も近い重心のクラスタを、そのデータ点が属するクラスタとする。
(iii)クラスタ毎に、各クラスタに属する複数のデータ点の平均値を算出し、平均値を示すデータ点を各クラスタの新たな重心とする。
(iv)クラスタ間における全てのデータ点の移動が収束するか、あるいは、計算ステップ数の上限に達するまで、(ii)および(iii)を繰り返し実行する。
 ステップS130Cにおいて、データ処理装置200は、ステップS130Aにおいて抽出したn次元特徴量を入力データとしてクラスタリングを実行することにより、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む制御パターンを決定する。例えば、クラスタリングによって、入力されるn次元特徴ベクトルを10グループに分類し、入力されるn次元特徴ベクトルを5グループに分類することができる。
 ステップS131Aにおいて、データ処理装置200は、例えば、排ガス流量、燃焼空気流量、燃焼ガス流量、炉内圧力、排ガス中のO濃度、CO濃度、およびNO濃度のそれぞれから18次元特徴ベクトルを抽出し、例えば、炉内雰囲気温度および排ガス温度のそれぞれから5次元特徴ベクトルを抽出する。
 データ処理装置200は、抽出した18次元特徴ベクトルにクラスタリング(ステップS131B)を適用することで、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む制御パターンを決定する。これと同様に、データ処理装置200は、抽出した5次元特徴ベクトルにクラスタリング(ステップS131B)を適用することで、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む制御パターンを決定する。データ処理装置200はクラスタリングを実行して、例えば、1チャージ毎の18次元および5次元特徴ベクトルを、10グループおよび5グループにそれぞれ分類する。データ処理装置200は、18次元および5次元特徴ベクトルのそれぞれに対応する、m回のチャージについてのm個の制御パターンで規定されるm次元制御パターンベクトル520を生成する。
 図11は、ステップS130で生成したl×m×n次元特徴ベクトル510にクラスタリングS131Bを適用し、m次元制御パターンベクトル520を生成する処理を説明するための図である。18次元特徴ベクトルに対応する制御パターンは、例えば、ラベルAAからJJの10種類のパターンを含み、5次元特徴ベクトルに対応する制御パターンは、例えば、ラベルAAからEEの5種類のパターンを含む。制御パターンは、溶解炉の制御状態をパターンとして抽出したものであり、より具体的には、主に、時系列プロセスデータの時間変化や微変動、細かい差異に着目して溶解炉の制御状態をパターン化したものである。溶解炉の制御状態とは、例えば、溶解初期の燃焼ガス流量が高い状態や、溶解後期の炉内圧力が低い状態などを意味する。ただし、制御パターンは、後述するように溶解炉の運転に関する情報も含み得る。
 図12は、予測モデルから出力される1チャージ毎の予測ドロス発生量を含むテーブルを例示する。本実装例において、学習データセットは、プロセスターゲットパラメータ、外乱パラメータに加えて、m次元制御パターンベクトルを含む。学習データセットにm次元制御パターンベクトルを含めることにより、ドロス発生量の予測精度を向上させることが可能となる。例えば、時系列プロセスデータの微小なばらつきの影響が抑えられて、ロバスト性が向上し得る。また、実操業に紐づけすることにより、所望の溶解炉の運転条件で溶解炉を制御することが容易になり得る。
 第1の実装例と同様に、予測モデルを訓練した結果、図12に例示されるように、1チャージ毎のドロス発生量の予測値が出力データとして得られる。
 [第3の実装例]
 図13は、第3の実装例による処理手順を示すフローチャートである。
 第3の実装例は、主のプロセス状態パラメータに基づいてプロセスパターンを生成する点で、第1または第2の実装例とは相違する。以下、相違点を主に説明する。
 本実装例における前処理は、ステップS130Aにおいて抽出したn次元特徴量に基づいて制御パターンを生成するステップS130D、および主のプロセス状態パラメータに基づいてプロセスパターンを生成するステップS130Eを含む。
 ステップS130Aの処理は第2の実施例において説明したとおりである。すなわち、データ処理装置200は、例えば、排ガス流量、燃焼空気流量、炉内圧力、排ガス中のO濃度、CO濃度、およびNO濃度のそれぞれを規定する時系列プロセスデータ群から18次元特徴ベクトルを抽出し、炉内雰囲気温度および排ガス温度のそれぞれを規定する時系列プロセスデータ群から5次元特徴ベクトルを抽出する。
 ステップS130Dの処理は、第2の実装例におけるステップS130Cの処理と異なる。相違は、サンプリング間隔が同じ1または複数のプロセス状態パラメータを2以上のグループにグループ分けする点にある。ステップS130Dにおいて、データ処理装置200は、同一グループに属する少なくとも1つのプロセス状態パラメータのそれぞれから1チャージ毎に取得したn次元特徴量を全て結合してグループ毎の結合特徴量を生成する。第3の実装例において、サンプリング間隔1秒で取得された複数のプロセス状態パラメータのうちの、排ガス流量および燃焼空気流量の2つがグループAに、炉内圧力がグループBに、排ガス中のO濃度、CO濃度、およびNO濃度の3つがグループCに割り当てられる。サンプリング間隔1分で取得されたプロセス状態パラメータである炉内雰囲気温度および排ガス温度はグループDに割り当てられる。
 ステップS132において、データ処理装置200は、グループAに属する排ガス流量および燃焼空気流量のプロセス状態パラメータのそれぞれから抽出した18次元特徴量を全て結合してグループAの結合特徴量を生成する。グループAの結合特徴量の次元は36次元である。データ処理装置200は、グループBに属する炉内圧力のプロセス状態パラメータから抽出した18次元特徴量を全て結合してグループBの結合特徴量を生成する。この場合、特徴量を結合する対象が1つなので、グループBの結合特徴量の次元は、炉内圧力の特徴量の次元と同じ18次元である。データ処理装置200は、グループCに属する排ガス中のO濃度、CO濃度、およびNOのプロセス状態パラメータのそれぞれから抽出した18次元特徴量を全て結合してグループCの結合特徴量を生成する。グループCの結合特徴量の次元は54次元である。グループDに属する炉内雰囲気温度および排ガス温度のそれぞれのプロセス状態パラメータから抽出した5次元特徴量を全て結合してグループDの結合特徴量を生成する。グループDの結合特徴量の次元は10次元である。
 データ処理装置200は、グループ毎の結合特徴量にクラスタリングS131Bを適用することで、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む制御パターンをグループ毎に決定する。本実装例におけるクラスタリングはGMMである。例えば、GMMによって、入力されるn次元特徴量を10グループに分類することができる。
 データ処理装置200は、グループAの36次元結合特徴量にGMMを適用することで1チャージ毎の制御パターンAを含むm次元制御パターンベクトルを生成する。データ処理装置200は、グループBの18次元結合特徴量にGMMを適用することで1チャージ毎の制御パターンBを含むm次元制御パターンベクトルを生成する。データ処理装置200は、グループCの54次元結合特徴量にGMMを適用することで1チャージ毎の制御パターンCを含むm次元制御パターンベクトルを生成する。データ処理装置200は、グループDの10次元結合特徴量にクラスタリングを適用することで1チャージ毎の制御パターンDを含むm次元制御パターンベクトルを生成する。例えば、制御パターンA~Dのそれぞれは、例えばラベルAAからJJの10種類のパターンを含む。制御パターンAは、バーナー制御に関する制御パターンであり、制御パターンBは、炉圧パターンに関する制御パターンであり、制御パターンCは、排ガス中の成分濃度に関する制御パターンであり、パターンDは、温度に関する制御パターンである。
 ステップS130Eにおいて、データ処理装置200は、1または複数のプロセス状態パラメータのうちの少なくとも1つを規定する時系列プロセスデータ群に機械学習を適用し、m回分のチャージのそれぞれのプロセスをパターン化することによって、プロセスパターンを決定する。より詳しく説明すると、データ処理装置200は、主のプロセス状態パラメータの1つを規定する時系列プロセスデータ群に符号化処理およびクラスタリングを適用することで、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含むプロセスパターンを決定する。
 主のプロセス状態パラメータは、1または複数のプロセス状態パラメータの中で溶解プロセスを直接的に支配するパラメータを指す。例えば、溶解炉におけるドロス発生量は炉蓋の開け閉めやバーナーのON/OFFなどによって大きく支配される。そのため、本実施形態において、これを反映するパラメータを主のプロセス状態パラメータとする。主のプロセス状態パラメータの例は燃焼ガス流量である。
 図14は、主のプロセス状態パラメータを規定する時系列プロセスデータ群に符号化処理およびクラスタリングを適用し、m次元プロセスパターンベクトル530を生成する処理を説明するための図である。
 ステップS130Eにおいて、データ処理装置200は、1または複数のプロセス状態パラメータの中で、主のプロセス状態パラメータの1つを規定する時系列プロセスデータ群に符号化処理およびクラスタリングを適用することで、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含むプロセスパターンを決定する。本実装例における符号化処理はVAEであり、クラスタリングはk-means法である。
 プロセスパターンは、例えばラベルAAAからDDDの4種類のパターンを含む。プロセスパターンは溶解プロセスにおいて必要な作業に関する。プロセスパターンは、作業の有無や作業順序、作業タイミングの組合せに着目して主のプロセス状態パラメータを規定する時系列プロセスデータ群をパターン化して、特徴を抽出したものである。上述した制御パターンは、プロセスパターンと同様に作業に関する情報を含み得るが、作業に関する情報以外の例えば溶解炉の制御状態などの情報を含む点でプロセスパターンとは異なる。
 データ処理装置200は、燃焼ガス流量を規定する時系列プロセスデータ群にVAEを適用して、燃焼ガス流量のプロセス状態パラメータから例えば2次元特徴量を1チャージ毎に抽出する。データ処理装置200は、抽出した2次元特徴量にk-means法を適用することで、m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含むプロセスパターンを決定する。データ処理装置200は、1チャージ毎のプロセスパターンを含むm次元プロセスパターンベクトル530を生成する。
 図15は、予測モデルから出力される1チャージ毎の予測ドロス発生量を含むテーブルを例示する。本実装例における学習データセットは、プロセスターゲットパラメータ、外乱パラメータ、m次元制御パターンベクトルに加えて、m次元プロセスパターンベクトルを含む。プロセスパターンの生成処理においてクラスタリングを適用することにより、その結果は、例えば作業者が分類する場合とは異なる結果になることがあり、プロセスパターンを客観的に抽出することが可能となる。これにより、ドロス発生量の予測精度が向上し得る。
 学習済みモデルに対し、ハイパーパラメータを調整することにより、予測モデルの精度を最適化することが好ましい。この調整は、例えばグリッドサーチを用いて行うことができる。
 本開示の実施形態による、学習済み予測モデルを生成する方法は、1または複数のプロセス状態パラメータと異なる1以上の他のプロセス状態パラメータを取得し、取得した1以上の他のプロセス状態パラメータから古典的な方法により特徴量を抽出するステップをさらに含み得る。他のプロセス状態パラメータは、上述した排ガス流量、燃焼空気流量、燃焼ガス流量などのプロセス状態パラメータと異なる。他のプロセス状態パラメータは、例えば溶解炉の燃焼排ガスの成分値、または燃焼排ガス温度である。抽出したn次元特徴量と、古典的な方法により抽出した特徴量とに基づいて学習データセットが生成され得る。
 [第4の実装例]
 図16は、第4の実装例による処理手順を示すフローチャートである。
 第4の実装例は、機械学習を適用して抽出したn次元特徴量と、古典的な方法により抽出した特徴量とに基づいて学習データセットを生成する点で、第1の実装例とは相違する。以下、相違点を主に説明する。
 第4の実装例における他のプロセス状態パラメータは、溶解炉の燃焼排ガスの成分値である。第4の実装例による処理フローは、溶解炉の燃焼排ガスの成分値を連続的に分析し、排ガス成分値の分析データを取得するステップ(S171)と、取得した分析データから、バーナー燃焼時の排ガス成分値の特徴量を古典的な方法により抽出するステップ(S172)とをさらに含む。古典的な方法の例は、理論または経験則に基づくものである。
 ステップS171において、データ処理装置200は、例えばガスセンサ708を備える燃焼排ガス分析装置から出力される出力値に基づいて、例えばO、CO、CO、NOxなどの各種の燃焼排ガスの成分値の連続的なデータ群を取得する。例えば、連続的なデータ群が1チャージごとに取得され得る。データ処理装置200は、連続的なデータ群を分析し、それぞれの排ガス成分値の分析データを取得する。ガス成分値の例は、ガス成分の濃度である。本実装例におけるデータ処理装置200は、O、CO、およびNOの燃焼排ガスの成分値の連続的なデータ群を分析し、O濃度、CO濃度、NO濃度の分析データを取得する。
 ステップS172において、データ処理装置200は、排ガス成分ごとに取得した分析データから、バーナー燃焼時の排ガス成分値の特徴量を排ガス成分ごとに抽出する。排ガス成分値の特徴量は、例えば1次元特徴ベクトルで表される。排ガス成分値の特徴量として、例えばバーナー燃焼時に得られるデータを分析することで取得される分析値の中央値等を用いることができる。
 ステップS140において、データ処理装置200は、機械学習を適用して抽出したn次元特徴量と、古典的な方法により抽出した排ガス成分値の特徴量とに基づいて学習データセットを生成する。本実装例におけるデータ処理装置200は、ステップS130で生成したl×m×n次元特徴ベクトル510、プロセスターゲットパラメータ、外乱パラメータ、およびステップS172で抽出した排ガス成分値の特徴量を含む学習データセットを生成する。
 排ガス成分値は特殊なプロセスデータであるために、機械学習よりも古典的な方法により特徴量を抽出することが好ましい。そのため、本実装例は、燃焼排ガス成分値を、上述したプロセス状態パラメータと区別して扱っている。ただし、排ガス成分値をプロセス状態パラメータの1つとして扱い、第1の実装例で説明したように機械学習を燃焼排ガス成分値に適用して特徴量を抽出してもよい。
 ステップS150において、データ処理装置200は、ステップS140で生成した学習データセットを用いて予測モデルを訓練し、学習済みモデルを生成する。
 <2.ランタイム>
 制御パターン候補、プロセスパターン候補などを含む入力データを、上述した学習済みモデルに入力することにより、溶解炉におけるドロス発生量予測を行うことや、ドロス発生量が所定の基準値を満たす制御パターンおよびプロセスパターンを出力することが可能となる。所定の基準値はドロス発生量の目標値として設定され得る。
 図17は、学習済みモデルに入力データを入力し、ドロス発生量または溶解歩留の予測値を含む出力データを出力する処理を例示する図である。
 本実施形態に係る溶解炉におけるドロス発生量を予測する方法は、ランタイムの入力として、制御パターン候補、プロセスパターン候補、原料装入から溶解完了までの1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータ、および、1または複数の外乱パラメータを含む入力データを受け取るステップと、学習済みモデルに入力データを入力して、1チャージ毎の予測ドロス発生量を出力するステップと、を含む。ただし、予測モデルを学習するときに利用される学習データセットに外乱パラメータが含まれていない場合、ランタイム時の入力データに外乱パラメータは含まれない。本実施形態では、入力データは外乱パラメータを含むものとして説明する。
 学習済みモデルは、例えば、上述した第1から第4の実装例に従って生成することができる。予測モデルの訓練に用いる学習データセットは、入力データに含まれるプロセスターゲットパラメータのデータ範囲を含む1または複数のプロセスターゲットパラメータ、および、入力データに含まれる外乱パラメータのデータ範囲を含む1または複数の外乱パラメータを含む。言い換えると、入力データの中の1または複数のプロセスターゲットパラメータは、学習データセットに含まれる1または複数のプロセスターゲットパラメータのデータ範囲から選択される。同様に、入力データの中の1または複数の外乱パラメータは、学習データセットに含まれる1または複数の外乱パラメータのデータ範囲から選択される。
 ここで、制御パターン候補およびプロセスパターン候補を説明する。
 制御パターン候補は、予測モデルを生成するときに前処理で生成された全ての制御パターンを含む。前処理で4種類(パターンAA、BB、CC、DD)の制御パターンが生成される場合、4つのパターンの全てが制御パターン候補となり得る。入力データに含まれる、プロセスターゲットパラメータやプロセスパターン、外乱パラメータに応じて、ドロス発生量が最も高くなる制御パターンは異なり得る。したがって、本実施形態では、プロセスターゲットパラメータやプロセスパターン、外乱パラメータの変化に応じて制御パターンを最適化するために、制御パターン候補の中から所望の制御パターンを選択する方式を採用している。所望の制御パターンは、ドロス発生量が所定の基準値、つまり、目標値を満たす制御パターンを意味する。
 プロセスパターン候補は、予測モデルを生成するときに前処理で生成されたプロセスパターンの中から、溶解プロセスにおいて選択可能なパターン候補として作業者が選択したプロセスパターンである。プロセスパターン候補は、所望の制御パターンを選択するときの制約条件的な意味合いで用いられる。作業者は、例えば作業予定に従って1また複数のプロセスパターン候補を選択できる。例えば、前処理で生成されたプロセスパターンが、AAAパターン(材料の装入回数:1回、炉内掃除:無)、BBBパターン(材料の装入回数:1回、炉内掃除:有)、CCCパターン(材料の装入回数:2回、炉内掃除:無)、DDDパターン(材料の装入回数:2回、炉内掃除:有)の4パターンを含むときに、溶解プロセスにおいて材料装入の回数は自由であり、炉床掃除は必要ない場合を考える。その場合、作業者は、例えば、データ処理装置200の入力装置210を介して、選択可能なパターン候補としてAAAパターン、CCCパターンの2つを選択することができる。
 図17において、入力データとして、AAからDDパターンの4つを含む制御パターン候補、作業者によって選択されたAAA、CCCパターンの2つを含むプロセスパターン候補を入力した場合において学習済みモデルが出力する出力データのテーブルが例示されている。
 出力データは、制御パターン候補およびプロセスパターン候補の全組み合わせと、ドロス発生量の予測値との対応を関連付けする。このドロス発生量の予測値は1チャージ毎の予測値である。図示される例において、8通りの組み合わせと、ドロス発生量の予測値との対応関係が示されている。データ処理装置200は、8通りの組み合わせの中から、ドロス発生量が目標値を満たす制御パターン候補およびプロセスパターン候補の組み合わせを、所望の制御パターンおよびプロセスパターンとして選択する。データ処理装置200は、選択した制御パターンおよびプロセスパターンを表示装置220に出力して表示してもよいし、例えばログファイルに出力してもよい。図示される例において、制御パターン候補BBおよびプロセスパターン候補CCCが、目標値を満たす所望の制御パターンおよびプロセスパターンとして選択された結果が表示されている。
 (実施例)
 本願発明者は、比較例と比較することによって、第1から第4の実装例におけるドロス発生量の予測精度の吟味を行った。比較例において、プロセス状態パラメータを規定する時系列プロセスデータから平均値を算出し、それを代表値として入力データに使用した。また、比較例では、ドロス発生量を重回帰によって予測し、予測精度を算出した。
 図18、図19Aから図19Dは、それぞれ、比較例、第1から第4の実装例における予測精度の評価結果を示すグラフである。グラフの横軸は標準化したドロス発生量実績値(a.u.)を示し、縦軸は標準化したドロス発生量予測値(a.u.)を示す。グラフの中に予測値=実績値となる直線が示されている。データの平均を0に、分散を1に変換する標準化を予測値と実績値とに適用した。
 比較例における決定係数Rは0.00であった。平均絶対誤差(MAE)は0.85であり、平均二乗誤差(MSE)は1.14であった。第1から第4の実装例における決定係数Rは、それぞれ、0.17、0.15、0.18、0.24であった。第1から第4の実装例における平均絶対誤差(MAE)は、それぞれ、0.71、0.78、0.76、0.66であり、平均二乗誤差(MSE)は、それぞれ、0.85、1.00、0.96、0.73であった。第1から第4の実装例における決定係数Rはいずれも比較例の決定係数Rを上回った。第1から第4の実装例におけるMAEはいずれも比較例のMAEを下回り、第1から第4の実装例におけるMSEもいずれも比較例のMSEを下回った。第1から第4の実装例の中では、とりわけ、第4の実装例がドロス発生量を精度よく予測する最適なモデルの1つであると考えられる。古典的な方法により抽出した排ガス成分値の特徴量を追加することで、排ガスの成分値による解析が可能となる。
 本実施形態によれば、CAEやVAEなどの符号化処理、GMMやk-meansなどのクラスタリングと、ニューラルネットワークなどの教師あり予測モデルとを統合して生成した予測モデルを利用することで、ドロス発生量または溶解歩留を高精度で予測することが可能となる。また、所望の操炉スケジュールおよび材料投入量の下、学習済みモデルを利用して、ドロス発生量または溶解歩留を最大化するための制御パターンおよびプロセスパターンの推薦が可能となる溶解炉の運転支援システムが提供される。
 本開示の技術は、合金材料の製造に用いる溶解炉におけるドロス発生量を予測する予測モデルの生成に加え、学習済みモデルを利用して溶解炉の運転条件の選定を行う支援システムにおいて広く用いられ得る。
 100、340:記憶装置(データベース)、200:データ処理装置、201:データ処理装置の本体、210:入力装置、220:表示装置、230、330:通信I/F、240:記憶装置、250、310:プロセッサ、260:ROM、270:RAM、280:バス、300:クラウドサーバー、320:メモリ、350:インターネット、400:ローカルエリアネットワーク、700:溶解炉、701:高速バーナー、702:炎、703:材料、704:煙道、705A、705B、705C:流量センサ、706:圧力センサ、707:温度センサ、708:ガスセンサ、1000:運転支援システム

Claims (20)

  1.  溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法であって、
     原料装入から溶解完了までの1チャージ毎に、属性が異なる1または複数のプロセス状態パラメータを取得するステップであって、それぞれのプロセス状態パラメータは、前記溶解炉に設置された各種センサからの出力に基づいて取得される連続的な時系列データ群によって規定されるステップと、
     m回分(mは2以上の整数)のチャージにおいて取得した前記1または複数のプロセス状態パラメータのデータセットに機械学習を適用して前処理を実行するステップであって、前記前処理は、1チャージ毎に取得した時系列データ群を含むそれぞれのプロセス状態パラメータからn次元特徴量(nは1以上の整数)を抽出することを含むステップと、
     抽出したn次元特徴量に基づいて学習データセットを生成するステップであって、前記学習データセットは、少なくとも、1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含むステップと、
     生成された前記学習データセットを用いて予測モデルを訓練し、前記ドロス発生量を予測する前記学習済み予測モデルを生成するステップと、
    を包含する、方法。
  2.  前記学習データセットは1または複数の外乱パラメータを含む、請求項1に記載の方法。
  3.  前記1または複数の外乱パラメータは外部環境因子を含む、請求項2に記載の方法。
  4.  前記前処理は、それぞれのプロセス状態パラメータを規定する時系列データ群を、抽出した前記n次元特徴量に基づいてパターン化することによって、制御パターンを決定することをさらに含み、
     前記学習データセットは前記制御パターンをさらに含む、請求項1から3のいずれかに記載の方法。
  5.  前記前処理は、抽出した前記n次元特徴量を入力データとしてクラスタリングを実行することにより、前記m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む前記制御パターンを決定する、請求項4に記載の方法。
  6.  前記前処理は、前記1または複数のプロセス状態パラメータのうちの少なくとも1つを規定する時系列データ群に機械学習を適用し、前記m回分のチャージのそれぞれのプロセスをパターン化することによって、プロセスパターンを決定することをさらに含み、
     前記学習データセットは前記プロセスパターンをさらに含む、請求項4または5に記載の方法。
  7.  前記前処理は、前記1または複数のプロセス状態パラメータの中で溶解プロセスを直接的に支配する主のプロセス状態パラメータの1つを規定する時系列データ群に符号化処理およびクラスタリングを適用することで、前記m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む前記プロセスパターンを決定する、請求項6に記載の方法。
  8.  前記主のプロセス状態パラメータの1つは燃焼ガス流量である、請求項7に記載の方法。
  9.  前記前処理は、
     それぞれのプロセス状態パラメータから1チャージ毎に取得したn次元特徴量を全て結合して1チャージ毎の結合特徴量を生成し、
     前記結合特徴量にクラスタリングを適用することで、前記m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む制御パターンを決定することをさらに含み、
     前記学習データセットは前記制御パターンをさらに含む、請求項1から3のいずれかに記載の方法。
  10.  前記1または複数のプロセス状態パラメータは2以上のグループにグループ分けされ、
     前記前処理は、
     同一グループに属する少なくとも1つのプロセス状態パラメータのそれぞれから1チャージ毎に取得したn次元特徴量を全て結合してグループ毎の結合特徴量を生成し、
     前記グループ毎の結合特徴量にクラスタリングを適用することで、前記m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含む制御パターンをグループ毎に決定することをさらに含み、
     前記学習データセットは前記グループ毎の制御パターンをさらに含む、請求項1から3のいずれかに記載の方法。
  11.  前記前処理は、前記1または複数のプロセス状態パラメータの中で、溶解プロセスを直接的に支配する主のプロセス状態パラメータの1つを規定する前記時系列データ群に符号化処理およびクラスタリングを適用することで、前記m回分のチャージのそれぞれのプロセスが、どのグループに属するか示すラベルを含むプロセスパターンを決定することをさらに含み、
     前記学習データセットは前記プロセスパターンをさらに含む、請求項10に記載の方法。
  12.  前記1または複数のプロセス状態パラメータと異なる1以上の他のプロセス状態パラメータを取得し、取得した前記1以上の他のプロセス状態パラメータから古典的な方法により特徴量を抽出するステップをさらに含み、
     前記学習データセットを生成するステップは、前記抽出したn次元特徴量と、古典的な方法により抽出した前記特徴量とに基づいて前記学習データセットを生成することを含む、請求項1から3のいずれかに記載の方法。
  13.  前記1以上の他のプロセス状態パラメータは、前記溶解炉の燃焼排ガスの成分値を含む、請求項12に記載の方法。
  14.  前記学習済み予測モデルは、アルミニウム合金の製造に用いる溶解炉におけるドロス発生量を予測する、請求項1から13のいずれかに記載の方法。
  15.  溶解炉において発生するドロス量を予測する方法であって、
     ランタイムの入力として、制御パターン候補、プロセスパターン候補、および原料装入から溶解完了までの1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含む入力データを受け取るステップと、
     予測モデルに前記入力データを入力して、1チャージ毎の予測ドロス発生量を出力するステップと、
    を含み、
     前記予測モデルは、属性が異なる1または複数のプロセス状態パラメータから抽出されるn次元特徴量に基づいて生成される学習データセットを利用して学習された学習済みモデルであり、
     前記1または複数のプロセス状態パラメータのそれぞれは、前記溶解炉に設置された各種センサからの出力に基づいて1チャージ毎に取得される連続的な時系列データ群によって規定され、
     前記学習データセットは、前記入力データに含まれる前記プロセスターゲットパラメータのデータ範囲を含む1または複数のプロセスターゲットパラメータを含む、方法。
  16.  前記入力データは、1または複数の外乱パラメータをさらに含み、
     前記学習データセットは、前記入力データに含まれる前記1または複数の外乱パラメータのデータ範囲を含む1または複数の外乱パラメータをさらに含む、請求項15に記載の方法。
  17.  1チャージ毎の予測ドロス発生量を表示装置に表示するステップをさらに含む、請求項15または16に記載の方法。
  18.  前記予測モデルに前記入力データを入力して、ドロス発生量が所定の基準値を満たす、制御パターンおよびプロセスパターンを出力するステップをさらに含む、請求項15から17のいずれかに記載の方法。
  19.  溶解炉において発生するドロス量を予測する予測モデルを取得するステップと、
     制御パターン候補、プロセスパターン候補、および原料装入から溶解完了までの1チャージ毎に設定されるプロセス基本情報を示す1または複数のプロセスターゲットパラメータを含む入力データを受け取るステップと、
     前記予測モデルに前記入力データを入力して、1チャージ毎の予測ドロス発生量を出力するステップと、
    をコンピュータに実行させるコンピュータプログラムであって、
     前記予測モデルは、属性が異なる1または複数のプロセス状態パラメータから抽出されるn次元特徴量に基づいて生成される学習データセットを利用して学習された学習済みモデルであり、
     前記1または複数のプロセス状態パラメータのそれぞれは、前記溶解炉に設置された各種センサからの出力に基づいて1チャージ毎に取得される連続的な時系列データ群によって規定され、
     前記学習データセットは、前記入力データに含まれる前記プロセスターゲットパラメータのデータ範囲を含む1または複数のプロセスターゲットパラメータを含む、コンピュータプログラム。
  20.  前記入力データは、1または複数の外乱パラメータをさらに含み、
     前記学習データセットは、前記入力データに含まれる前記1または複数の外乱パラメータのデータ範囲を含む1または複数の外乱パラメータをさらに含む、請求項19に記載のコンピュータプログラム。
PCT/JP2023/007055 2022-02-28 2023-02-27 溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム WO2023163172A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-030022 2022-02-28
JP2022030022A JP2023125753A (ja) 2022-02-28 2022-02-28 溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2023163172A1 true WO2023163172A1 (ja) 2023-08-31

Family

ID=87766225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/007055 WO2023163172A1 (ja) 2022-02-28 2023-02-27 溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2023125753A (ja)
WO (1) WO2023163172A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011752A (ja) * 2005-06-30 2007-01-18 Kyoto Univ データ処理装置、データ処理プログラム、それを格納したコンピュータ読み取り可能な記録媒体、およびデータ処理方法
JP2016062411A (ja) * 2014-09-19 2016-04-25 ヤフー株式会社 情報分析装置、情報分析方法および情報分析プログラム
JP2019159823A (ja) * 2018-03-13 2019-09-19 富士通株式会社 学習プログラム、学習方法および学習装置
WO2022024544A1 (ja) * 2020-07-29 2022-02-03 Jfeスチール株式会社 ドロス欠陥予測方法、ドロス欠陥低減方法、溶融亜鉛めっき鋼板の製造方法、合金化溶融亜鉛めっき鋼板の製造方法、ドロス欠陥予測モデルの生成方法、ドロス欠陥予測装置、およびドロス欠陥予測端末システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011752A (ja) * 2005-06-30 2007-01-18 Kyoto Univ データ処理装置、データ処理プログラム、それを格納したコンピュータ読み取り可能な記録媒体、およびデータ処理方法
JP2016062411A (ja) * 2014-09-19 2016-04-25 ヤフー株式会社 情報分析装置、情報分析方法および情報分析プログラム
JP2019159823A (ja) * 2018-03-13 2019-09-19 富士通株式会社 学習プログラム、学習方法および学習装置
WO2022024544A1 (ja) * 2020-07-29 2022-02-03 Jfeスチール株式会社 ドロス欠陥予測方法、ドロス欠陥低減方法、溶融亜鉛めっき鋼板の製造方法、合金化溶融亜鉛めっき鋼板の製造方法、ドロス欠陥予測モデルの生成方法、ドロス欠陥予測装置、およびドロス欠陥予測端末システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEILEI JIAN, LI ZHANQUAN: "Research Progress on the Expression, Signal Transduction and Treatment of Axl in Leukemia", THE JOURNAL OF PRACTICAL MEDICINE, vol. 30, no. 22, 25 November 2014 (2014-11-25), pages 3677 - 3679, XP093088029 *

Also Published As

Publication number Publication date
JP2023125753A (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
Cemernek et al. Machine learning in continuous casting of steel: A state-of-the-art survey
Jiang et al. Abnormality monitoring in the blast furnace ironmaking process based on stacked dynamic target-driven denoising autoencoders
CN108375474B (zh) 一种航空发动机过渡态关键性能参数预测方法
JP5176206B2 (ja) プロセスの状態類似事例検索方法及びプロセスの制御方法
CN111254243A (zh) 一种高炉出铁过程堵铁口时间智能确定方法及***
JP2007052739A (ja) モデル生成方法、状態予測方法、状態調整方法、モデル生成装置、状態予測装置、及び状態調整システム
CN114881101B (zh) 一种基于仿生搜索的电力***典型场景关联特征选择方法
Jiang et al. Prediction of multiple molten iron quality indices in the blast furnace ironmaking process based on attention-wise deep transfer network
Shi et al. Key issues and progress of industrial big data-based intelligent blast furnace ironmaking technology
Liu et al. Model fusion and multiscale feature learning for fault diagnosis of industrial processes
WO2022059753A1 (ja) 溶解炉のエネルギー効率を予測する学習済み予測モデルを生成する方法、溶解炉のエネルギー効率を予測する方法、およびコンピュータプログラム
JP2022546321A (ja) 原材料のジャストインタイム特性評価のためのシステム及び方法
Takalo-Mattila et al. Explainable steel quality prediction system based on gradient boosting decision trees
CN110956331A (zh) 数字工厂运营状态预测方法、***、装置
JP5845945B2 (ja) 操業予測装置、操業予測方法、及びコンピュータプログラム
WO2023163172A1 (ja) 溶解炉において発生するドロス量を予測する学習済み予測モデルを生成する方法、溶解炉において発生するドロス量を予測する方法、およびコンピュータプログラム
CN112418522B (zh) 一种基于三支集成预测模型的工业加热炉钢温预测方法
CN117473770A (zh) 一种基于数字孪生信息的钢铁设备智能管理***
Li et al. Data-driven modeling and operation optimization with inherent feature extraction for complex industrial processes
CN116401545A (zh) 一种多模型融合的水轮机振摆分析方法
CN115017818A (zh) 基于注意力机制和多层lstm的电厂烟气含氧量智能预测方法
JP6829271B2 (ja) 測定動作パラメータ調整装置、機械学習装置及びシステム
Shigemori Desulphurization control system through locally weighted regression model
Wang et al. On-line modeling and monitoring for multi-operation batch processes with infinite data types
Rathnayake et al. CNN based severity prediction of bug reports

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23760170

Country of ref document: EP

Kind code of ref document: A1