WO2022025806A1 - Method and system for modeling oil and gas formation dynamics - Google Patents

Method and system for modeling oil and gas formation dynamics Download PDF

Info

Publication number
WO2022025806A1
WO2022025806A1 PCT/RU2021/050246 RU2021050246W WO2022025806A1 WO 2022025806 A1 WO2022025806 A1 WO 2022025806A1 RU 2021050246 W RU2021050246 W RU 2021050246W WO 2022025806 A1 WO2022025806 A1 WO 2022025806A1
Authority
WO
WIPO (PCT)
Prior art keywords
input data
data
neural network
reservoir
latent space
Prior art date
Application number
PCT/RU2021/050246
Other languages
French (fr)
Russian (ru)
Inventor
Андрей Станиславович МАРГАРИТ
Максим Владимирович СИМОНОВ
Алексей Владимирович АХМЕТОВ
Павел Георгиевич ТЕМИРЧЕВ
Дмитрий Анатольевич КОРОТЕЕВ
Анна Евгеньевна ГУБАНОВА
Денис Михайлович ОРЛОВ
Дмитрий Сергеевич Волосков
Егор Александрович ИЛЛАРИОНОВ
Original Assignee
Общество С Ограниченной Ответственностью "Газпромнефть Научно-Технический Центр" (Ооо "Газпромнефть Нтц)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Газпромнефть Научно-Технический Центр" (Ооо "Газпромнефть Нтц) filed Critical Общество С Ограниченной Ответственностью "Газпромнефть Научно-Технический Центр" (Ооо "Газпромнефть Нтц)
Publication of WO2022025806A1 publication Critical patent/WO2022025806A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/28Design optimisation, verification or simulation using fluid dynamics, e.g. using Navier-Stokes equations or computational fluid dynamics [CFD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2113/00Details relating to the application field
    • G06F2113/08Fluids

Definitions

  • the present technical solution relates to the field of computer technology used for specialized data processing, in particular, to a method and system for modeling the dynamics of oil and gas reservoirs that provide modeling of changes in the state of oil and gas reservoirs during field development and forecasting hydrocarbon production.
  • the technical problem solved by the claimed invention is the acceleration of calculations in the simulation of the dynamics of oil and gas reservoirs, with the possibility of a wide range of scaling of the model.
  • the technical result is to accelerate the simulation of the dynamics of oil and gas reservoirs and improve the accuracy of forecasting mineral deposits.
  • the claimed result is achieved due to the fact that the computer-executable method for modeling the dynamics of oil and gas reservoirs, performed using at least one processor, contains the steps at which:
  • the differential equation of the computational cell model (z) can be used to obtain a latent representation of the states at all selected time points (t):
  • the technical result is achieved due to the fact that the system for modeling the dynamics of oil and gas reservoirs contains at least one processor and at least one memory device that stores machine-readable instructions, which, when executed by the processor, perform the following steps:
  • the machine-readable medium contains a computer program, during the execution of which the processor performs the following operations on the computer:
  • the set of input data describing the characteristics of the hydrodynamic 3D reservoir model includes at least the following parameters:
  • the solution of a partial differential equation is performed using a deep learning method.
  • the translation of the normalized input data into the latent space with dimensionality reduction is carried out by compression and at the same time a compressive mapping is determined, leading to a minimum loss of information about the state of the reservoir.
  • the translation of the normalized input data into the latent space with dimensionality reduction is carried out for each computational cell.
  • the invention increases the dimension using a convolutional neural network, which automatically selects the number of neural network layers to perform the prediction.
  • the normalized input data is translated into a latent space with dimensionality reduction using a convolutional neural network that performs dynamic adjustment.
  • a set of input data is obtained that describes the characteristics of a hydrodynamic 3D model of a reservoir of real fields and their segments.
  • normalization of the input data is performed by subtracting the mean and dividing by the standard deviation.
  • the convolutional neural network used for dimensionality enhancement uses Voxel Shuffle layers (voxel shuffle).
  • the convolutional neural network used for dimensionality enhancement uses a linear interpolation method
  • the convolutional neural network used for dimensionality enhancement has the convolutional layers replaced with transposed convolution layers.
  • the fluid system data is given in the form of a RPP (relative phase permeability) table and a PVT (PVT) table containing the dependence of the fluid volume coefficient and viscosity on pressure and gas content.
  • RPP relative phase permeability
  • PVT PVT
  • PVT tables describe the PVT properties of water, oil, gas, such as density. phase viscosity, volumetric expansion, etc.
  • pP is specified at a certain number of points and is obtained by interpolation for other points (PVDO, PVTO, PVCDO, PVCO for the oil phase and PVDG, PVTG, PVZG for the gas phase).
  • PVDO, PVTO, PVCDO, PVCO for the oil phase
  • PVDG PVTG
  • PVZG the indication of the pressure derivative
  • Approximations derived from PVT relationships through correlation analysis (Standing's correlation) can also be used.
  • the description of the 3D computational grid indicates the number of cells in each of the directions of the coordinate axis and the coordinates of the corner points of each cell.
  • the dimensionality reduction performed by a convolutional neural network does not use the fully connected layer method.
  • downscaling and upscaling are performed using a single convolutional neural network.
  • FIG. 1 illustrates a block diagram of the claimed method.
  • FIG. 2 illustrates a schematic representation of the architecture of neural networks.
  • FIG. 3 illustrates a schematic diagram of how a machine learning model works.
  • FIG. 4 illustrates the result of the NDE-b-ROM model created according to the claimed invention.
  • FIG. 5 illustrates the general view of the computing system.
  • FIG. 6 illustrates an example of a model solution averaged over computational cells for the purpose of visualization, presented as an interface.
  • latent space refers to a low-dimensional (hidden) space, for example, a compressible space (representation of compressed data), described in the articles: "Authorencoders: Types of Architectures and Applications” Basic Course. , 09/11/2018 (https://neurohive.io/ru/osnovy-data-science/avtojenkoder-tipy-arhitektur-i-primenenie/) and “Understanding Latent Space in Machine Learning”, Ekin Tiu (https://towardsdatascience .com/understanding-latent-space-in-machine-learning-de5a7c687d8d) (date of access: 05/25/2020)
  • module “component”, “element” and the like used in the present description of this technical solution are used to refer to computer entities that may be hardware/equipment (e.g., device, tool, apparatus, apparatus, part of a device, e.g., processor, microprocessor, integrated circuit,
  • a component can be a process running on a processor (processor), an object, an executable code, program code, a file, a program/application, a function, a method, a (software) library, a subroutine, a coroutine, and/or a computing device (e.g., microcomputer or computer) or a combination of software or hardware components.
  • the neural network module can be implemented in software and / or hardware in the form of an SoC containing a microprocessor and / or neural processor (Neural Processing Unit, NPU or AI accelerator), which represents a specialized class of microprocessors and coprocessors ( often an ASIC) used for hardware acceleration of artificial neural network algorithms, computer vision, voice recognition, machine learning, and other artificial intelligence methods.
  • a microprocessor and / or neural processor Neural Processing Unit, NPU or AI accelerator
  • a set of input data is obtained that describes the characteristics of the hydrodynamic 3D reservoir model.
  • a set of input data is obtained that describes the characteristics of a hydrodynamic 3D reservoir model, including, for example, a description of a 3D computational grid; distribution of reservoir properties by reservoir cells; fluid system data; data on the distribution of fluids and pressures over computational cells at the initial moment of time; development system data, including well trajectories and bottom hole pressure.
  • the reservoir model consists of computational cells with reservoir properties distribution. Such construction of the input model allows taking into account information about the properties of each cell independently, thus unique properties can be set in each cell, such as:
  • FES values (permeability and porosity properties) in the calculation cell
  • the input information at step (101) can be obtained, for example, from a text file of the format of various software products, such as: tNavigator ⁇ ECLIPSE-like simulators, and is presented, as a rule, in the .DATA format.
  • the initial states can be either explicitly introduced for each cell or calculated from the conditions of hydrodynamic equilibrium in each of the cells.
  • At least data such as:
  • FES distributions (key words: PORO, PERMX, PERMY, PERMZ);
  • initial state of the deposit keywords: PRESSURE, SOIL, SWAT, SGAS (presence of phases) (or via the keyword EQUIL);
  • Keywords are the keywords of ECLIPSE-like simulators, in this case, words are used by analogy with the tNavigator simulator. All described keywords can be found in the manual of the tNavigator system (RFDynamics "Program for modeling the development of oil and gas fields tNavigator", version 4.2, Technical manual, M.: 2017).
  • Development system data typically includes well trajectories (WELLTRACK) and well schedules. Oil production is supported at wells with bottomhole pressure control, water injection into the reservoir with control over injection volumes.
  • a well When modeling, a well can be represented not only in a horizontal or strictly vertical, but in almost any arbitrary form. Flexibility in choosing the shape of the well is provided by the fact that the trajectory of the wellbore is given by a piecewise linear curve, which is described by a set of points belonging to the trajectory (keyword: WELLTRACK). Multilateral wells are supported: each wellbore must be described by the set of points discussed earlier. Also, perforation intervals can be set for each well (keywords: ETAB, COMPDAT). The intersections of the well trajectory with the calculated cells are calculated automatically by the model.
  • variables are created in the form of three-dimensional tensors: - initial distribution of fluids and pressures, - a variable that includes reservoir properties and table-specified functions, u - a variable that includes the geometry of the wells and their operating modes.
  • the normalization of the input data is performed separately for each type of characteristics of the input parameters by subtracting the mean value and dividing by the standard deviation.
  • the following input data are normalized: reservoir properties values, distribution of fluids and pressure over cells at the initial moment of time, data on bottomhole pressures and volumes of water injection into wells.
  • the average values and standard deviations for each of the characteristics are calculated, the calculation is carried out according to the currently available solutions of the commercial simulator, available before training. Further, the calculated means and standard deviations do not change.
  • step (103) for the normalized data, they are transferred to the latent space in order to reduce the data dimension, which is performed using a deep fully convolutional neural network (the "compression" step, see Fig. , ).
  • Dimension reduction is achieved by using a convolution window step greater than one.
  • the convolution window step is a convolutional layer parameter that characterizes the number of input cells that fall into the layer. The larger the step of the convolution window, the less often the layer looks at the cells of the input variable, and therefore, the smaller the dimension of the output variable.
  • the data dimension at step (103) is reduced by a factor of 4 along each of the coordinate axes, thus the overall dimension is reduced by a factor of 64.
  • step (103) is to obtain:
  • the neural network module that implements step (103) is called an encoder.
  • the encoder's action on input variables can be written as follows:
  • a forecast is made of data on the distribution of fluids and pressures in the latent space in a given time range. Those. a forecast is built for a latent representation of the reservoir state for a given time range, where the forecast is a solution of a differential equation in partial derivatives:
  • the solution of the differential equation can be obtained by numerical integration methods.
  • the following methods are used as a method of numerical integration at the user's choice:
  • step (104) is based on the Neural Differential Equations method (Chen et al. Neural Ordinary Differential Equations // https://arxiv.org/abs/1806.07366), in which the dynamics is modeled as a partial differential equation, the prediction is built for an arbitrary amount of time ahead (rather than a fixed time step). At the same time, the number of cells in the latent space is not limited by the architecture. The model is designed in such a way that the resulting number of neural network layers can be selected automatically using the adaptive method of numerical integration.
  • step (104) is to obtain a prediction of the latent representation of the state of the reservoir for the given time range [0,T].
  • the solution obtained at step (104) is translated from the latent space into the original space with obtaining data on the distribution of fluids and pressures over the calculated cells in a given time interval.
  • the dimension of variables is increased due to the use of special neural network layers.
  • step (105) is the transfer of the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, i.e. obtaining a forecast of the state of the reservoir (distribution of fluids and pressures) for a given time range
  • the neural network module that implements step (105) is called a decoder.
  • the action of the decoder on input variables can be written as follows:
  • the increase in the dimension of variables at step (105) is performed by the VoxelShuffle method, which is a modification of the PixelShuffle method (W. She et al. Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network // https://arxiv.org/abs/1609.05158).
  • the PixelShuffle method is used to increase the dimension of images and consists in rearranging the elements of a three-dimensional tensor that defines an image. Let the described tensor have the dimension [C,H,W], where C is the number of image channels, H and W are the height and width of the image.
  • the PixelShuffle method rearranges the tensor elements in such a way that its dimension changes from [C,H,W] to [C/ ⁇ 2 , ⁇ H, ⁇ W], where ⁇ is the degree of dimension enhancement.
  • the VoxelShuffle method used in step (105) is a generalization of the PixelShuffle method for the case of three-dimensional space: the tensor dimension changes from [C,H,W,L] to [C/ ⁇ 3 , ⁇ H, ⁇ W, ⁇ L].
  • the method demonstrates higher forecast accuracy and less noise in the forecast than the piecewise linear interpolation method and the method using transposed convolution layers.
  • the increase in the dimension of the variables at step (105) is performed by using the method of piecewise linear interpolation.
  • the increase in the dimension of the variables at step (105) is performed by using transposed convolution layers, which are used instead of ordinary convolutional layers.
  • the transposed convolution layers implement the convolution procedure in the opposite direction.
  • the encoder and decoder models are collectively referred to as the autoencoder.
  • the model allows taking into account heterogeneous porosity and permeability, which is achieved due to the fact that porosity and permeability are set independently in each cell. It is also possible to take into account the anisotropy of permeability, since three different variables are used to describe permeability: permeability in each of the three directions of the coordinate axis.
  • the training of the model was carried out in one or two stages:
  • the model parameters are preserved.
  • the model parameters are preserved.
  • the processing speed of 30 data streams is 9.60 seconds
  • the processing speed of the same data stream is about 180 seconds.
  • model input file part An example of the model input file part described earlier can be described as follows:
  • the system (200) contains components such as: one or more processors (201), at least one RAM (202), persistent data storage (203), input/output interfaces (204), I/O In (205), networking tools (206).
  • processors 201
  • RAM random access memory
  • persistent data storage 203
  • input/output interfaces 204
  • I/O In 205
  • networking tools 206
  • the processor (201) is designed to perform the program logic and required computing operations necessary for the operation of the system (200).
  • the processor (201) executes the necessary machine-readable commands and instructions contained in the main memory (202).
  • the processor (201) (or multiple processors, multi-core processor, etc.) can be selected from a range of devices currently widely used, for example, manufacturers such as: IntelTM, AMDTM, AppleTM, Samsung ExynosTM, MediaTEK TM, Qualcomm SnapdragonTM, etc.
  • the graphics processor for example, NVIDIA GPU or Graphcore, the type of which is also suitable for full or partial implementation of the methods for implementing the claimed solution, and can also be used for training and applying models machine learning.
  • the memory (202) is typically in the form of RAM and contains the necessary software logic to provide the desired functionality.
  • the data storage means (203) can be in the form of HDD, SSD disks, raid array, network storage, flash memory, optical information storage devices (CD, DVD, MD, Blue-Ray disks), etc.
  • the means (203) allows long-term storage of various types of information, such as request processing history (logs), user IDs, camera data, images, etc.
  • Interfaces (204) are standard means for connecting and working with the system (200) or other computing devices. Interfaces (204) may represent, for example, USB, RS232, RJ45, LPT, COM, HDMI, PS/2, Lightning, FireWire, and the like. The choice of interfaces (204) depends on the specific implementation of the system (200), which can be a personal computer, mainframe, server cluster, thin client, smartphone, laptop, etc., as well as connected third-party devices.
  • I/O data (205) can be used: keyboard, joystick, display (touch screen), projector, touchpad, mouse, trackball, light pen, speakers, microphone, etc.
  • Means of networking (206) are selected from a device that provides network data reception and transmission, for example, an Ethernet card, WLAN/Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem, etc.
  • a device that provides network data reception and transmission for example, an Ethernet card, WLAN/Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem, etc.
  • the organization of data exchange over a wired or wireless data transmission channel for example, WAN, PAN, LAN (LAN), Intranet, Internet, WLAN, WMAN or GSM.
  • the components of the system (200) are typically connected via a common data bus.
  • the visualization of the interface is given, which shows an example of applying the method, where the results of the application were averaged over all computational cells. Those. on the are shown: the blue line (tNav) is the result of the model using the tNavigator system, the orange line (AE) is the result of the model using the claimed method. Time (months) is plotted along the X-axis, characteristic values averaged over all active cells of the deposit are plotted along the Y-axis.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Algebra (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Fluid Mechanics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present technical solution relates to the field of computer technology applicable to specialized data processing, and more particularly relates to a method and system for modeling oil and gas formation dynamics, making it possible to model a change in the state of oil and gas formations during reservoir development and to forecast hydrocarbon production.

Description

Способ и система моделирования динамики нефтегазовых пластовMethod and system for modeling the dynamics of oil and gas reservoirs
Настоящее техническое решение относится к области компьютерной техники, применяемой для специализированной обработки данных, в частности к способу и системе моделирования динамики нефтегазовых пластов, обеспечивающих моделирование изменения состояния нефтегазовых пластов при разработке месторождения и прогнозирования добычи углеводородов.The present technical solution relates to the field of computer technology used for specialized data processing, in particular, to a method and system for modeling the dynamics of oil and gas reservoirs that provide modeling of changes in the state of oil and gas reservoirs during field development and forecasting hydrocarbon production.
В настоящий момент моделирование динамики пластовых систем производится при помощи численного решения систем уравнений, описывающий течения в пластах (см. например, Rivenaes et al. Introduction to Reservoir Modelling // https://link.springer.com/chapter/10.1007/978-3-642-34132-8_22). Для решения подобных систем уравнений разработаны несколько коммерческих программных продуктов, например, Eclipse от Schlumberger (https://sis.slb.ru/products/eclipse), tNavigator от RFD (https://rfdyn.ru/ru/tnavigator/). Программные продукты представляют залежь (пласт) в виде вычислительной сетки из трехмерных ячеек. В каждой из ячеек заданы значения пористости, абсолютной проницаемости, относительных фазовых проницаемостей (фильтрационно-емкостные свойства (ФЕС), характеризующие различные части пласта); начальные насыщенности флюидами (нефть, вода, газ) и давления. Кроме того, для начала моделирования программным продуктам необходимо иметь информацию о реологических и термодинамических свойствах флюидной системы и о схеме разработки (расположение скважин, их геометрия и режимы работы на период прогнозирования). At the moment, the modeling of the dynamics of reservoir systems is carried out using the numerical solution of systems of equations describing the flows in the reservoirs (see, for example, Rivenaes et al. Introduction to Reservoir Modeling // https://link.springer.com/chapter/10.1007/978- 3-642-34132-8_22). To solve such systems of equations, several commercial software products have been developed, for example, Eclipse from Schlumberger (https://sis.slb.ru/products/eclipse), tNavigator from RFD (https://rfdyn.ru/ru/tnavigator/). Software products represent a reservoir (layer) in the form of a computational grid of three-dimensional cells. In each of the cells, the values of porosity, absolute permeability, relative phase permeabilities (porosity and permeability properties (PRP) characterizing different parts of the reservoir) are given; initial fluid saturations (oil, water, gas) and pressures. In addition, to start modeling, software products need to have information about the rheological and thermodynamic properties of the fluid system and the development scheme (location of wells, their geometry and operating modes for the forecasting period).
Из уровня техники известно решение по моделированию месторождений с полезными ископаемыми (WO 2019118658 A1 «Система и способ для моделирования моделей пласта», опубл. 14.12.2017, G06N3/04), в котором применяется прогнозное моделирование данных о нефтяных залежах, с применением алгоритмов машинного обучения на основе архитектуры нейронной сети CGAN. The prior art solution for modeling deposits with minerals (WO 2019118658 A1 "System and method for modeling reservoir models", publ. 12/14/2017, G06N3/04), which uses predictive modeling of data on oil deposits using computer learning based on the CGAN neural network architecture.
Другим решением в данной области является использование моделей глубокого обучения для прогнозирования перемещения залежей флюидов (Temirchev et al. DEEP NEURAL NETWORKS PREDICTING OIL MOVEMENT IN A DEVELOPMENT UNIT // https://arxiv.org/pdf/1901.02549.pdf). Данный подход основывается на прогнозировании свойств пласта на основании первичного построения трехмерной сетки с распределением свойств флюидов, и применении модели машинного обучения, которая обучается на базовой модели динамики. Прогнозирование производится с помощью перевода параметров модели в латентное пространство для последующего снижения его размерности и последующего перевода в исходное пространство с получением информации о движении флюидов. Another solution in this area is the use of deep learning models to predict the movement of fluid deposits (Temirchev et al. DEEP NEURAL NETWORKS PREDICTING OIL MOVEMENT IN A DEVELOPMENT UNIT // https://arxiv.org/pdf/1901.02549.pdf). This approach is based on the prediction of reservoir properties based on the initial construction of a three-dimensional grid with the distribution of fluid properties, and the application of a machine learning model that is trained on a basic dynamics model. Prediction is performed by transferring the model parameters to the latent space for subsequent reduction in its dimension and subsequent transfer to the original space with obtaining information about the movement of fluids.
Основным недостатком текущей реализации прогнозных моделей динамики пластов является длительность расчетов при моделировании реальных пластовых систем, и, следовательно, невозможность моделирования большого количества сценариев разработки для выбора максимально оптимальной схемы разработки, что также приводит к ограничению выполняемых расчетов исключительно расчетной областью и не позволяет масштабировать модель для анализа залежей произвольного размера.The main disadvantage of the current implementation of predictive models of reservoir dynamics is the duration of calculations when simulating real reservoir systems, and, consequently, the impossibility of simulating a large number of development scenarios to select the most optimal development scheme, which also leads to the limitation of the calculations performed exclusively by the computational area and does not allow scaling the model for analysis of deposits of arbitrary size.
Техническая задачаTechnical task
Технической проблемой, решаемой с помощью заявленного изобретения, является ускорение выполнения расчетов при моделировании динамики нефтегазовых пластов, с обеспечением возможности широкого спектра масштабирования модели. The technical problem solved by the claimed invention is the acceleration of calculations in the simulation of the dynamics of oil and gas reservoirs, with the possibility of a wide range of scaling of the model.
Техническим результатом является ускорение моделирования динамики нефтегазовых пластов и повышение точности прогноза залежей полезных ископаемых.The technical result is to accelerate the simulation of the dynamics of oil and gas reservoirs and improve the accuracy of forecasting mineral deposits.
Решение задачиThe solution of the problem
Заявленный результат достигается за счет того, что компьютерно-исполняемый способ моделирования динамики нефтегазовых пластов, выполняемый с помощью по меньшей мере одного процессора, содержит этапы, на которых: The claimed result is achieved due to the fact that the computer-executable method for modeling the dynamics of oil and gas reservoirs, performed using at least one processor, contains the steps at which:
получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта;receiving a set of input data describing the characteristics of a hydrodynamic 3D reservoir model;
выполняют нормализацию входных данных отдельно для каждого типа характеристик входных параметров;performing normalization of the input data separately for each type of characteristics of the input parameters;
осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности;carry out the translation of the normalized input data in the latent space with a decrease in dimension;
осуществляют построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне, где прогноз осуществляется решением дифференциального уравнения в частных производных;carry out the construction of a forecast of data on the distribution of fluids and pressures in the latent space in a given time range, where the forecast is carried out by solving a differential equation in partial derivatives;
выполняют перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, при этом повышают размерность с помощью сверточной нейронной сети.transferring the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, while increasing the dimension using a convolutional neural network.
В результате внешняя (вне латентного пространства) нормализация данных проводится для каждого типа характеристик отдельно, с учетом физического смысла этой характеристики, используются полностью-сверточные нейросетевые архитектуры для всех нейросетевых модулей модели, что влияет на повышение качества точности прогноза залежей при этом ускоряя процесс обработки массива данных в целом. Эффективность заявленного технического решения достигается за счет того, что осуществляют построение прогноза данных о распределении флюидов и давлений непосредственно в латентном пространстве в заданном временном диапазоне, при этом прогноз осуществляется решением дифференциального уравнения в частных производных, что значительно сокращает время обработки данных при прогнозе на данном этапе. Кроме того, решение дифференциального уравнения при прогнозировании обеспечивает повышение точности и скорости прогнозирования (моделирования) нефтегазовых пластов. As a result, external (outside the latent space) data normalization is carried out for each type of characteristics separately, taking into account the physical meaning of this characteristic, fully-convolutional neural network architectures are used for all neural network modules of the model, which affects the quality of the accuracy of deposit forecasting while speeding up the processing of the array data in general. The effectiveness of the claimed technical solution is achieved due to the fact that they build a forecast of data on the distribution of fluids and pressures directly in the latent space in a given time range, while the forecast is carried out by solving a partial differential equation, which significantly reduces the data processing time for forecasting at this stage . In addition, the solution of the differential equation during forecasting provides an increase in the accuracy and speed of forecasting (modeling) of oil and gas reservoirs.
Для построения прогнозной модели флюида может быть использовано дифференциальное уравнение модели вычислительных ячеек (z) для получения латентного представления состояний во все выбранные моменты времени (t):To build a predictive fluid model, the differential equation of the computational cell model (z) can be used to obtain a latent representation of the states at all selected time points (t):
Figure pctxmlib-appb-I000001
где
Figure pctxmlib-appb-I000001
where
g - нейросетевой модуль; g - neural network module;
Figure pctxmlib-appb-M000001
- латентного представления состояния залежи (распределение флюидов и поровое давление) в начальный момент времени;
Figure pctxmlib-appb-M000001
- latent representation of the reservoir state (distribution of fluids and pore pressure) at the initial moment of time;
Figure pctxmlib-appb-M000002
- латентного представления геологических свойств залежи и свойств флюидной системы;
Figure pctxmlib-appb-M000002
- latent representation of the geological properties of the reservoir and the properties of the fluid system;
Figure pctxmlib-appb-M000003
- латентного представления траекторий скважин и их режимов работы.
Figure pctxmlib-appb-M000003
- latent representation of well trajectories and their operating modes.
Также технический результат достигается за счет того, что система моделирования динамики нефтегазовых пластов содержит по меньшей мере один процессор и по меньшей мере одно запоминающее устройство, хранящее машиночитаемые инструкции, которые при их выполнении процессором выполняют следующие этапы:Also, the technical result is achieved due to the fact that the system for modeling the dynamics of oil and gas reservoirs contains at least one processor and at least one memory device that stores machine-readable instructions, which, when executed by the processor, perform the following steps:
получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта;receiving a set of input data describing the characteristics of a hydrodynamic 3D reservoir model;
выполняют нормализацию входных данных отдельно для каждого типа характеристик входных параметров;performing normalization of the input data separately for each type of characteristics of the input parameters;
осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности;carry out the translation of the normalized input data in the latent space with a decrease in dimension;
осуществляют построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне, где прогноз осуществляется решением дифференциального уравнения в частных производных;carry out the construction of a forecast of data on the distribution of fluids and pressures in the latent space in a given time range, where the forecast is carried out by solving a differential equation in partial derivatives;
выполняют перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, при этом повышают размерность с помощью сверточной нейронной сети.transferring the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, while increasing the dimension using a convolutional neural network.
Технический результат достигается за счет того, что машиночитаемый носитель содержит компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:The technical result is achieved due to the fact that the machine-readable medium contains a computer program, during the execution of which the processor performs the following operations on the computer:
получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта;receiving a set of input data describing the characteristics of a hydrodynamic 3D reservoir model;
выполняют нормализацию входных данных отдельно для каждого типа характеристик входных параметров;performing normalization of the input data separately for each type of characteristics of the input parameters;
осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности;carry out the translation of the normalized input data in the latent space with a decrease in dimension;
осуществляют построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне, где прогноз осуществляется решением дифференциального уравнения в частных производных;carry out the construction of a forecast of data on the distribution of fluids and pressures in the latent space in a given time range, where the forecast is carried out by solving a differential equation in partial derivatives;
выполняют перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, при этом повышают размерность с помощью сверточной нейронной сети.transferring the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, while increasing the dimension using a convolutional neural network.
В одном из вариантов реализации изобретения набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта, включает в себя по крайне мере следующие параметры: In one embodiment of the invention, the set of input data describing the characteristics of the hydrodynamic 3D reservoir model includes at least the following parameters:
описание 3D расчетной сетки;description of the 3D computational grid;
распределение ФЕС по ячейкам залежи;distribution of reservoir properties by reservoir cells;
данные о флюидной системе;fluid system data;
данные о распределении флюидов и давлений по вычислительным ячейкам в начальный момент времени;data on the distribution of fluids and pressures over computational cells at the initial moment of time;
данные о системе разработки, включающие по меньшей мере траектории скважин и давление на их забое.data about the development system, including at least the trajectory of the wells and the pressure at their bottomhole.
В одном из вариантов реализации изобретения решение дифференциального уравнения в частных производных выполняется с помощью метода глубокого обучения. In one embodiment of the invention, the solution of a partial differential equation is performed using a deep learning method.
В одном из вариантов реализации изобретения перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется путём сжатия и при этом определяется сжимающее отображение, приводящее к минимальной потере информации о состоянии залежи.In one of the embodiments of the invention, the translation of the normalized input data into the latent space with dimensionality reduction is carried out by compression and at the same time a compressive mapping is determined, leading to a minimum loss of information about the state of the reservoir.
В одном из вариантов реализации изобретения перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется для каждой вычислительной ячейки. In one of the embodiments of the invention, the translation of the normalized input data into the latent space with dimensionality reduction is carried out for each computational cell.
В одном из вариантов реализации изобретения повышают размерность с помощью сверточной нейронной сети, которая автоматически подбирает количество нейросетевых слоев для выполнения прогноза. In one embodiment, the invention increases the dimension using a convolutional neural network, which automatically selects the number of neural network layers to perform the prediction.
В одном из вариантов реализации изобретения осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности с использованием сверточной нейронной сети, осуществляющей динамическую подстройку.In one of the embodiments of the invention, the normalized input data is translated into a latent space with dimensionality reduction using a convolutional neural network that performs dynamic adjustment.
В одном из вариантов реализации изобретения получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта реальных месторождений и их сегментов.In one of the embodiments of the invention, a set of input data is obtained that describes the characteristics of a hydrodynamic 3D model of a reservoir of real fields and their segments.
В одном из вариантов реализации изобретения нормализацию входных данных выполняют путем вычитания среднего значения и деления на стандартное отклонение.In one embodiment of the invention, normalization of the input data is performed by subtracting the mean and dividing by the standard deviation.
В одном из вариантов реализации изобретения в сверточной нейронной сети, используемой для повышения размерности, используются слои Voxel Shuffle (воксель шафл).In one embodiment of the invention, the convolutional neural network used for dimensionality enhancement uses Voxel Shuffle layers (voxel shuffle).
В одном из вариантов реализации изобретения в сверточной нейронной сети, используемой для повышения размерности, используется метод линейной интерполяции, In one embodiment of the invention, the convolutional neural network used for dimensionality enhancement uses a linear interpolation method,
В одном из вариантов реализации изобретения в сверточной нейронной сети, используемой для повышения размерности, сверточные слои заменены на слои транспонированной свертки.In one embodiment, the convolutional neural network used for dimensionality enhancement has the convolutional layers replaced with transposed convolution layers.
В одном из вариантов реализации изобретения данные о флюидной системе, задаются в виде ОФП (относительная фазовая проницаемость)-таблицы и PVT (ПВТ)-таблицы, содержащих зависимость объемного коэффициента флюида и вязкости от давления и газосодержания.In one embodiment of the invention, the fluid system data is given in the form of a RPP (relative phase permeability) table and a PVT (PVT) table containing the dependence of the fluid volume coefficient and viscosity on pressure and gas content.
PVT-таблицы описывают PVT-свойства воды, нефти, газа, например, плотность. вязкость фазы, объемное расширение и т.п. Таким образом, для модели черной нефти вязкость фазы µP = µP(pP) — функция, вводимая пользователем. Для нефтяной и газовой фаз задается в некотором количестве точек pP и получается интерполяцией для других точек (PVDO, PVTO, PVCDO, PVCO для нефтяной фазы и PVDG, PVTG, PVZG для газовой фазы). Для водной фазы задается в одной точке вместе с указанием производной по давлению (PVTW). Также могут быть использованы аппроксимации, полученные из отношений PVT посредством корреляционного анализа (корреляция Стэндинга).PVT tables describe the PVT properties of water, oil, gas, such as density. phase viscosity, volumetric expansion, etc. Thus, for the black oil model, the phase viscosity µP = µP(pP) is a user input function. For the oil and gas phases, pP is specified at a certain number of points and is obtained by interpolation for other points (PVDO, PVTO, PVCDO, PVCO for the oil phase and PVDG, PVTG, PVZG for the gas phase). For the aqueous phase, it is set at one point along with the indication of the pressure derivative (PVTW). Approximations derived from PVT relationships through correlation analysis (Standing's correlation) can also be used.
В одном из вариантов реализации изобретения в описании 3D расчетной сетки указывается число ячеек в каждом из направлений координатной оси и координаты угловых точек каждой ячейки.In one of the embodiments of the invention, the description of the 3D computational grid indicates the number of cells in each of the directions of the coordinate axis and the coordinates of the corner points of each cell.
В одном из вариантов реализации изобретения при понижении размерности выполняется сверточной нейронной сетью не используется метод полностью связных слоев.In one embodiment of the invention, the dimensionality reduction performed by a convolutional neural network does not use the fully connected layer method.
В одном из вариантов реализации изобретения понижение размерности и повышение размерности осуществляется с использованием одной сверточной нейронной сети. In one embodiment of the invention, downscaling and upscaling are performed using a single convolutional neural network.
Фигура.1Figure.1
[Фиг.1] иллюстрирует блок-схему выполнения заявленного способа.[Figure 1] illustrates a block diagram of the claimed method.
Фигура.2Figure.2
[Фиг.2] иллюстрирует схематическое изображение архитектуры нейронных сетей.[Figure 2] illustrates a schematic representation of the architecture of neural networks.
Фигура.3Figure.3
[Фиг.3] иллюстрирует принципиальную схему работы модели машинного обучения.[FIG. 3] illustrates a schematic diagram of how a machine learning model works.
Фигура.4Figure.4
[Фиг.4] иллюстрирует результат работы модели NDE-b-ROM, созданной по заявленному изобретению.[Figure 4] illustrates the result of the NDE-b-ROM model created according to the claimed invention.
Фигура.5Figure.5
[Фиг.5] иллюстрирует общий вид вычислительной системы.[Figure 5] illustrates the general view of the computing system.
Фигура.6Figure.6
[Фиг.6] иллюстрирует пример решения модели, усредненного по вычислительным ячейкам с целью визуализации, представленного в виде интерфейса.[FIG. 6] illustrates an example of a model solution averaged over computational cells for the purpose of visualization, presented as an interface.
Под термином «латентное пространство» понимается маломерное (скрытое) пространство, например, сжимаемое пространство (представление сжатых данных), описанное в статьях: «Авторэнкодеры: типы архитектур и применение» Базовый курс. , 11.09.2018 (https://neurohive.io/ru/osnovy-data-science/avtojenkoder-tipy-arhitektur-i-primenenie/) и «Understanding Latent Space in Machine Learning», Ekin Tiu (https://towardsdatascience.com/understanding-latent-space-in-machine-learning-de5a7c687d8d) (дата обращения: 25.05.2020) Используемые в настоящем описании настоящего технического решения термины «модуль», «компонент», «элемент» и подобные используются для обозначения компьютерных сущностей, которые могут являться аппаратным обеспечением/оборудованием (например, устройством, инструментом, аппаратом, аппаратурой, составной частью устройства, например, процессором, микропроцессором, интегральной схемой, печатной платой, в том числе электронной печатной платой, макетной платой, материнской платой и т.д., микрокомпьютером и так далее), программным обеспечением (например, исполняемым программным кодом, скомпилированным приложением, программным модулем, частью программного обеспечения или программного кода и так далее) и/или микропрограммой (в частности, прошивкой). Так, например, компонент может быть процессом, выполняющемся на процессоре (процессором), объектом, исполняемым кодом, программным кодом, файлом, программой/приложением, функцией, методом, (программной) библиотекой, подпрограммой, сопрограммой и/или вычислительным устройством (например, микрокомпьютером или компьютером) или комбинацией программных или аппаратных компонентов. В некоторых вариантах реализации нейросетевой модуль может быть реализован программно и/или аппаратно в виде SoC содержащего микропроцессор и/или нейронный процессор (англ. Neural Processing Unit, NPU или ИИ-ускоритель англ. AI accelerator), которой представляет специализированный класс микропроцессоров и сопроцессоров (часто являющихся специализированной интегральной схемой), используемый для аппаратного ускорения работы алгоритмов искусственных нейронных сетей, компьютерного зрения, распознавания по голосу, машинного обучения и других методов искусственного интеллекта.The term "latent space" refers to a low-dimensional (hidden) space, for example, a compressible space (representation of compressed data), described in the articles: "Authorencoders: Types of Architectures and Applications" Basic Course. , 09/11/2018 (https://neurohive.io/ru/osnovy-data-science/avtojenkoder-tipy-arhitektur-i-primenenie/) and “Understanding Latent Space in Machine Learning”, Ekin Tiu (https://towardsdatascience .com/understanding-latent-space-in-machine-learning-de5a7c687d8d) (date of access: 05/25/2020) The terms "module", "component", "element" and the like used in the present description of this technical solution are used to refer to computer entities that may be hardware/equipment (e.g., device, tool, apparatus, apparatus, part of a device, e.g., processor, microprocessor, integrated circuit, printed circuit board, including electronic printed circuit board, prototyping board, motherboard, etc. .d., microcomputer, etc.), software (e.g., executable code, compiled application, software module, piece of software or code, etc.) and/or microp program (in particular, firmware). For example, a component can be a process running on a processor (processor), an object, an executable code, program code, a file, a program/application, a function, a method, a (software) library, a subroutine, a coroutine, and/or a computing device (e.g., microcomputer or computer) or a combination of software or hardware components. In some embodiments, the neural network module can be implemented in software and / or hardware in the form of an SoC containing a microprocessor and / or neural processor (Neural Processing Unit, NPU or AI accelerator), which represents a specialized class of microprocessors and coprocessors ( often an ASIC) used for hardware acceleration of artificial neural network algorithms, computer vision, voice recognition, machine learning, and other artificial intelligence methods.
На представлена блок схема выполнения заявленного способа (100) моделирования динамики нефтегазовых пластов. На первом этапе (101) получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта. Таким образом, получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта, включающие в себя, например, описание 3D расчетной сетки; распределение ФЕС по ячейкам залежи; данные о флюидной системе; данные о распределении флюидов и давлений по вычислительным ячейкам в начальный момент времени; данные о системе разработки, включающие траектории скважин и давление на их забое.On the a block diagram of the implementation of the claimed method (100) for modeling the dynamics of oil and gas reservoirs is presented. At the first stage (101), a set of input data is obtained that describes the characteristics of the hydrodynamic 3D reservoir model. Thus, a set of input data is obtained that describes the characteristics of a hydrodynamic 3D reservoir model, including, for example, a description of a 3D computational grid; distribution of reservoir properties by reservoir cells; fluid system data; data on the distribution of fluids and pressures over computational cells at the initial moment of time; development system data, including well trajectories and bottom hole pressure.
Модель пласта состоит из вычислительных ячеек с распределением ФЕС. Такое построение входной модели позволяет учесть информацию о свойствах каждой ячейки независимо, таким образом в каждой ячейке могут быть заданы уникальные свойства, такие как: The reservoir model consists of computational cells with reservoir properties distribution. Such construction of the input model allows taking into account information about the properties of each cell independently, thus unique properties can be set in each cell, such as:
геометрия расчетной ячейки, с указанием координат ее угловых точек;geometry of the calculation cell, indicating the coordinates of its corner points;
значения ФЕС (фильтрационно-емкостные свойства) в расчетной ячейке;FES values (permeability and porosity properties) in the calculation cell;
данные о флюидной системе в расчетной ячейке, заданные в виде ОФП-таблицы (относительная фазовая проницаемость) и PVT-таблицы, содержащей зависимость объемного коэффициента флюида и вязкости от давления и газосодержания;data on the fluid system in the calculation cell, given in the form of an RPP table (relative phase permeability) and a PVT table containing the dependence of the fluid volume coefficient and viscosity on pressure and gas content;
данные о распределении флюидов и о поровом давлении в вычислительной ячейке в начальный момент времени;data on fluid distribution and pore pressure in the computational cell at the initial moment of time;
данные о наличии или отсутствии скважины в расчетной ячейке, а также данные о забойном давлении в скважине и об объемах закачки воды в скважину, в случае ее наличия.data on the presence or absence of a well in the calculation cell, as well as data on the bottomhole pressure in the well and on the volume of water injected into the well, if any.
Входная информация на этапе (101) может быть получена, например, из текстового файла формата различных программных продуктов, таких как: tNavigator\ECLIPSE-подобных симуляторов, и представляется, как правило, в формате .DATA. The input information at step (101) can be obtained, for example, from a text file of the format of various software products, such as: tNavigator\ECLIPSE-like simulators, and is presented, as a rule, in the .DATA format.
Начальные состояния могут быть как введены по каждой ячейке явно, так и вычислены из условий гидродинамического равновесия в каждой из ячеек.The initial states can be either explicitly introduced for each cell or calculated from the conditions of hydrodynamic equilibrium in each of the cells.
В упомянутом файле считываются, по меньшей мере такие данные, как:In said file, at least data such as:
геометрия расчетной сетки (ключевые слова: DIMENS, NX, NY, NZ, DX, DY, DZ, COORD, ZCORN);computational grid geometry (keywords: DIMENS, NX, NY, NZ, DX, DY, DZ, COORD, ZCORN);
распределения ФЕС (ключевые слова: PORO, PERMX, PERMY, PERMZ);FES distributions (key words: PORO, PERMX, PERMY, PERMZ);
начальное состояние залежи (ключевые слова: PRESSURE, SOIL, SWAT, SGAS (наличие фаз) (либо через ключевое слово EQUIL);initial state of the deposit (keywords: PRESSURE, SOIL, SWAT, SGAS (presence of phases) (or via the keyword EQUIL);
таблично заданные функции (ключевые слова: PVTO, PVTG, PVDO, PVDG, SWOF, SGOF, ROCK, DENSITY);table-defined functions (keywords: PVTO, PVTG, PVDO, PVDG, SWOF, SGOF, ROCK, DENSITY);
траектории скважин (ключевые слова: COMPDAT, WELLTRACK, WELSPECS);well trajectories (key words: COMPDAT, WELLTRACK, WELSPECS);
режимы работы скважин (ключевые слова tNavigator: WCONPROD, WCONINJE, STEP, DATES; ключевые слова Tempest MORE (секция RECU): ETAB, EFORm, RATE).well operation modes (tNavigator keywords: WCONPROD, WCONINJE, STEP, DATES; Tempest MORE keywords (RECU section): ETAB, EFORm, RATE).
Все приведенные ключевые слова – это ключевые слова ECLIPSE-подобных симуляторов, в данном случае используются слова по аналогии с симулятором tNavigator. Все описанные ключевые слова можно найти в мануале системы tNavigator (RFDynamics «Программа для моделирования процессов разработки нефтегазовых месторождений tNavigator», версия 4.2, Техническое руководство, М.:2017).All the above keywords are the keywords of ECLIPSE-like simulators, in this case, words are used by analogy with the tNavigator simulator. All described keywords can be found in the manual of the tNavigator system (RFDynamics "Program for modeling the development of oil and gas fields tNavigator", version 4.2, Technical manual, M.: 2017).
Данные о системе разработки обычно включают в себя траектории скважин (WELLTRACK) и расписание работы скважин. Поддерживается добыча нефти на скважинах с контролем по забойному давлению, закачка воды в пласт с контролем по объемам закачки. Development system data typically includes well trajectories (WELLTRACK) and well schedules. Oil production is supported at wells with bottomhole pressure control, water injection into the reservoir with control over injection volumes.
При моделировании скважина может быть представлена не только в горизонтальной или строго вертикальной, а в практически любой произвольной форме. Гибкость в выборе формы скважины обеспечивается тем, что траектория ствола скважины задается кусочно-линейной кривой, которая описывается набором точек, принадлежащих траектории (ключевое слово: WELLTRACK). Поддерживаются многозабойные скважины: каждый ствол должен быть описан набором точек, рассмотренным ранее. Также, для каждой скважины могут быть заданы интервалы перфорации (ключевые слова: ETAB, COMPDAT). Пересечения траектории скважины с расчетными ячейками вычисляется моделью автоматически.When modeling, a well can be represented not only in a horizontal or strictly vertical, but in almost any arbitrary form. Flexibility in choosing the shape of the well is provided by the fact that the trajectory of the wellbore is given by a piecewise linear curve, which is described by a set of points belonging to the trajectory (keyword: WELLTRACK). Multilateral wells are supported: each wellbore must be described by the set of points discussed earlier. Also, perforation intervals can be set for each well (keywords: ETAB, COMPDAT). The intersections of the well trajectory with the calculated cells are calculated automatically by the model.
Из описанных ранее файлов создаются переменные в виде трехмерных тензоров:
Figure pctxmlib-appb-M000004
- начальное распределение флюидов и давлений,
Figure pctxmlib-appb-M000005
- переменная, включающая ФЕС и таблично-заданные функции, u - переменная, включающая геометрию скважин и режимы их работы.
From the files described earlier, variables are created in the form of three-dimensional tensors:
Figure pctxmlib-appb-M000004
- initial distribution of fluids and pressures,
Figure pctxmlib-appb-M000005
- a variable that includes reservoir properties and table-specified functions, u - a variable that includes the geometry of the wells and their operating modes.
На этапе (102) выполняется нормализация входных данных отдельно для каждого типа характеристик входных параметров путем вычитания среднего значения и деления на стандартное отклонение. Нормализуются следующие входные данные: значения ФЕС, распределения флюидов и давления по ячейкам в начальный момент времени, данные о забойных давлениях и объемах закачки воды в скважины. Перед настройкой модели вычисляются средние значения и стандартные отклонения по каждой из характеристик, вычисление проводится по доступным на текущий момент решениям коммерческого симулятора, доступным до обучения. Далее, вычисленные средние и стандартные отклонения не изменяются. At step (102), the normalization of the input data is performed separately for each type of characteristics of the input parameters by subtracting the mean value and dividing by the standard deviation. The following input data are normalized: reservoir properties values, distribution of fluids and pressure over cells at the initial moment of time, data on bottomhole pressures and volumes of water injection into wells. Before tuning the model, the average values and standard deviations for each of the characteristics are calculated, the calculation is carried out according to the currently available solutions of the commercial simulator, available before training. Further, the calculated means and standard deviations do not change.
Далее на этапе (103) для нормализованных данных осуществляется их перевод в латентное пространство с целью понижения размерности данных, которое выполняется с помощью глубокой полностью сверточной нейронной сети (этап «сжатие» см. , ). Понижение размерности достигается за счет использования шага окна свертки, большего единицы. Шаг окна свертки — это параметр сверточного слоя, характеризующий количество ячеек входа, попадающих в слой. Чем больше шаг окна свертки, тем с меньшей частотой слой смотрит на ячейки входной переменной, а следовательно, тем меньше размерность выходной переменной. В одном из частных примеров осуществления способа размерность данных на этапе (103) снижается в 4 раза по каждой из координатных осей, таким образом суммарно размерность уменьшается в 64 раза.Next, at step (103), for the normalized data, they are transferred to the latent space in order to reduce the data dimension, which is performed using a deep fully convolutional neural network (the "compression" step, see Fig. , ). Dimension reduction is achieved by using a convolution window step greater than one. The convolution window step is a convolutional layer parameter that characterizes the number of input cells that fall into the layer. The larger the step of the convolution window, the less often the layer looks at the cells of the input variable, and therefore, the smaller the dimension of the output variable. In one of the particular examples of the implementation of the method, the data dimension at step (103) is reduced by a factor of 4 along each of the coordinate axes, thus the overall dimension is reduced by a factor of 64.
Результатом этапа (103) является получение:The result of step (103) is to obtain:
Латентного представления состояния залежи (распределение флюидов и поровое давление) в начальный момент времени
Figure pctxmlib-appb-M000006
.
Latent representation of the reservoir state (fluid distribution and pore pressure) at the initial time
Figure pctxmlib-appb-M000006
.
Латентного представления геологических свойств залежи и свойств флюидной системы
Figure pctxmlib-appb-M000007
/
Latent representation of reservoir geological properties and fluid system properties
Figure pctxmlib-appb-M000007
/
Латентного представления траекторий скважин и их режимов работы
Figure pctxmlib-appb-M000008
.
Latent representation of well trajectories and their operating modes
Figure pctxmlib-appb-M000008
.
Нейросетевой модуль, реализующий этап (103), называется кодировщиком. Формально, действие кодировщика на входные переменные может быть записано следующим образом: The neural network module that implements step (103) is called an encoder. Formally, the encoder's action on input variables can be written as follows:
Figure pctxmlib-appb-M000009
,
Figure pctxmlib-appb-M000009
,
гдеwhere
Figure pctxmlib-appb-M000010
- начальное распределение флюидов и давлений,
Figure pctxmlib-appb-M000011
- переменная, включающая ФЕС и таблично-заданные функции, u - переменная, включающая геометрию скважин и режимы их работы.
Figure pctxmlib-appb-M000010
- initial distribution of fluids and pressures,
Figure pctxmlib-appb-M000011
- a variable that includes reservoir properties and table-specified functions, u - a variable that includes the geometry of the wells and their operating modes.
На этапе (104) выполняется построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне. Т.е. выполняется построение прогноза латентного представления состояния залежи на заданный временной диапазон, где прогноз является решением дифференциального уравнения в частных производных:At step (104), a forecast is made of data on the distribution of fluids and pressures in the latent space in a given time range. Those. a forecast is built for a latent representation of the reservoir state for a given time range, where the forecast is a solution of a differential equation in partial derivatives:
Figure pctxmlib-appb-M000012
где g - нейросетевой модуль.
Figure pctxmlib-appb-M000012
where g - neural network module.
Решение дифференциального уравнения может быть получено методами численного интегрирования. В одном из частных примеров осуществления способа, в качестве метода численного интегрирования используются следующие методы на выбор пользователя:The solution of the differential equation can be obtained by numerical integration methods. In one of the particular examples of the implementation of the method, the following methods are used as a method of numerical integration at the user's choice:
метод Эйлераeuler method
метод средней точкиmidpoint method
метод Рунге-Кутта 4-го порядка4th order Runge-Kutta method
явный метод Адамсаexplicit adams method
неявный метод Адамсаimplicit adams method
неявный метод Адамса (адаптивный)implicit adams method (adaptive)
метод DOPRI5 (адаптивный)DOPRI5 method (adaptive)
Подход, реализуемый на этапе (104), основан на методе Neural Differential Equations (Chen et al. Neural Ordinary Differential Equations // https://arxiv.org/abs/1806.07366), в котором динамика моделируется как уравнение в частных производных, прогноз строится на произвольное количество времени вперед (а не на фиксированный временной шаг). При этом количество ячеек в латентном пространстве архитектурой не ограничено. Модель устроена таким образом, что результирующее количество слоев нейронной сети может быть подобрано автоматизировано при использовании адаптивного метода численного интегрирования.The approach implemented in step (104) is based on the Neural Differential Equations method (Chen et al. Neural Ordinary Differential Equations // https://arxiv.org/abs/1806.07366), in which the dynamics is modeled as a partial differential equation, the prediction is built for an arbitrary amount of time ahead (rather than a fixed time step). At the same time, the number of cells in the latent space is not limited by the architecture. The model is designed in such a way that the resulting number of neural network layers can be selected automatically using the adaptive method of numerical integration.
Результатом этапа (104) является получение прогноза латентного представления состояния залежи
Figure pctxmlib-appb-M000013
на заданный временной диапазон [0,T].
The result of step (104) is to obtain a prediction of the latent representation of the state of the reservoir
Figure pctxmlib-appb-M000013
for the given time range [0,T].
На этапе (105) выполняется перевод решения, полученного на этапе (104), из латентного пространства в исходное пространство с получением данных о распределении флюидов и давлений по расчетным ячейкам в заданном временном интервале. Размерность переменных при этом повышается за счет использования специальных нейросетевых слоев.At step (105), the solution obtained at step (104) is translated from the latent space into the original space with obtaining data on the distribution of fluids and pressures over the calculated cells in a given time interval. In this case, the dimension of variables is increased due to the use of special neural network layers.
Результатом этапа (105) является перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, т.е. получение прогноза состояния залежи (распределения флюидов и давлений) на заданный временной диапазон
Figure pctxmlib-appb-M000014
The result of step (105) is the transfer of the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, i.e. obtaining a forecast of the state of the reservoir (distribution of fluids and pressures) for a given time range
Figure pctxmlib-appb-M000014
Нейросетевой модуль, реализующий этап (105), называется декодировщиком. Формально, действие декодировщика на входные переменные может быть записано следующим образом:The neural network module that implements step (105) is called a decoder. Formally, the action of the decoder on input variables can be written as follows:
Figure pctxmlib-appb-M000015
, где
Figure pctxmlib-appb-M000015
, where
Figure pctxmlib-appb-M000016
- прогноз переменных состояния залежи моделью, а
Figure pctxmlib-appb-M000017
- прогноз латентного представления переменных состояния.
Figure pctxmlib-appb-M000016
- prediction of reservoir state variables by the model, and
Figure pctxmlib-appb-M000017
- prediction of the latent representation of state variables.
В одном из частных примеров осуществления способа повышение размерности переменных на этапе (105) выполняется за счет метода VoxelShuffle, который является модификацией метода PixelShuffle (W. She et al. Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network // https://arxiv.org/abs/1609.05158). Метод PixelShuffle используется для повышения размерности изображений и заключается в перестановке элементов трехмерного тензора, задающего изображение. Пусть описанный тензор имеет размерность [C,H,W], где C - количество каналов изображения, H и W - высота и ширина изображения. Метод PixelShuffle переставляет элементы тензора таким образом, что его размерность изменяется с [C,H,W] на [C/γ2,γH,γW], где γ - степень повышения размерности. Используемый на этапе (105) метод VoxelShuffle является обобщением метода PixelShuffle на случай трехмерного пространства: размерность тензора изменяется с [C,H,W,L] до [C/γ3,γH,γW,γL]. Метод демонстрирует более высокую точность прогноза и меньшее количество шума в прогнозе, чем метод кусочно-линейной интерполяции и метод с использованием слоев транспонированной свертки.In one of the particular examples of the implementation of the method, the increase in the dimension of variables at step (105) is performed by the VoxelShuffle method, which is a modification of the PixelShuffle method (W. She et al. Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network // https://arxiv.org/abs/1609.05158). The PixelShuffle method is used to increase the dimension of images and consists in rearranging the elements of a three-dimensional tensor that defines an image. Let the described tensor have the dimension [C,H,W], where C is the number of image channels, H and W are the height and width of the image. The PixelShuffle method rearranges the tensor elements in such a way that its dimension changes from [C,H,W] to [C/γ 2 ,γH,γW], where γ is the degree of dimension enhancement. The VoxelShuffle method used in step (105) is a generalization of the PixelShuffle method for the case of three-dimensional space: the tensor dimension changes from [C,H,W,L] to [C/γ 3 ,γH,γW,γL]. The method demonstrates higher forecast accuracy and less noise in the forecast than the piecewise linear interpolation method and the method using transposed convolution layers.
В одном из частных примеров осуществления способа повышение размерности переменных на этапе (105) выполняется за счет использования метода кусочно-линейной интерполяции.In one of the particular examples of the implementation of the method, the increase in the dimension of the variables at step (105) is performed by using the method of piecewise linear interpolation.
В одном из частных примеров осуществления способа повышение размерности переменных на этапе (105) выполняется за счет использования слоев транспонированной свертки, которые используются вместо обыкновенных сверточных слоев. Слои транспонированной свертки реализуют процедуру свертки в обратном направлении.In one of the particular examples of the implementation of the method, the increase in the dimension of the variables at step (105) is performed by using transposed convolution layers, which are used instead of ordinary convolutional layers. The transposed convolution layers implement the convolution procedure in the opposite direction.
Таким образом, увеличение шага окна свертки в этих слоях приводит к увеличению размерности выходной переменной.Thus, increasing the step of the convolution window in these layers leads to an increase in the dimension of the output variable.
В теории машинного обучения модели кодировщика и декодировщика вместе называют автокодировщиком.In machine learning theory, the encoder and decoder models are collectively referred to as the autoencoder.
На представлен один из частных способов реализации кодировщика (слева) и декодировщика (справа).On the one of the private ways to implement the encoder (left) and decoder (right) is presented.
На схематично изображена процедура применения модели от этапа (103) до этапа (105). On the schematically depicts the procedure for applying the model from step (103) to step (105).
Модель позволяет учитывать неоднородную пористость и проницаемость, что достигается за счет того, что пористость и проницаемость задаются в каждой ячейке независимо. Также, возможен учет анизотропии проницаемости, поскольку для описания проницаемости используется три различных переменных: проницаемость по каждому из трех направлений координатной оси.The model allows taking into account heterogeneous porosity and permeability, which is achieved due to the fact that porosity and permeability are set independently in each cell. It is also possible to take into account the anisotropy of permeability, since three different variables are used to describe permeability: permeability in each of the three directions of the coordinate axis.
Обучение модели осуществлялось может проводиться как в один, так и в два этапа:The training of the model was carried out in one or two stages:
(опционально) предварительное обучение кодировщика и декодировщика;(optional) preliminary training of the encoder and decoder;
обучение нейродифференциального уравнения, кодировщика и декодировщика.learning neurodifferential equation, encoder and decoder.
При предварительном обучении кодировщика и декодировщика выполняется следующая процедура (в цикле по заданному числу эпох):When pretraining the encoder and decoder, the following procedure is performed (in a loop over a given number of epochs):
выбор нескольких независимых состояний ( {s_t} ), из разных сценариев и разных моментов времени;selection of several independent states ( {s_t} ), from different scenarios and different points in time;
применение кодировщика к выбранным состояниям для получения латентного представления состояний {z_t};applying an encoder to the selected states to obtain a latent representation of the {z_t} states;
применение декодировщика к полученным латентным представлениям для получения аппроксимации исходных состояний {s_t_approx};applying a decoder to the received latent representations to obtain an approximation of the initial states {s_t_approx};
вычисление нормы невязки между {s_t} и {s_t_approx} (используется функция квадратичной невязки);calculating the residual norm between {s_t} and {s_t_approx} (using the quadratic residual function);
вычисление градиента ошибки по параметрам модели автокодировщика, выполнение шага оптимизатора ADAM в пространстве параметров модели автокодировщика;calculating the error gradient from the autoencoder model parameters, executing the ADAM optimizer step in the autoencoder model parameter space;
если ошибка прогноза на отложенной выборке меньше предыдущего минимума, параметры модели сохраняются.if the forecast error on the deferred sample is less than the previous minimum, the model parameters are preserved.
При обучении нейродифференциального уравнения, кодировщика и декодировщика выполняется следующая процедура (в цикле по заданному числу эпох):When training a neurodifferential equation, encoder and decoder, the following procedure is performed (in a loop over a given number of epochs):
выбор последовательностей состояний ( {s_t:T} ), из разных сценариев и разных моментов времени;selection of state sequences ( {s_t:T} ), from different scenarios and different points in time;
применение кодировщика к начальным состояниям (в момент времени t) для получения латентного представления начальных состояний {z_t};applying an encoder to the initial states (at time t) to obtain a latent representation of the initial states {z_t};
применение модели нейродифференциального уравнения для получения латентного представления состояний во все выбранные моменты времени {z_t:T}application of the neurodifferential equation model to obtain a latent representation of states at all selected times {z_t:T}
применение декодировщика к полученным латентным представлениям для получения аппроксимации исходных состояний {s_t:T_approx};applying a decoder to the received latent representations to obtain an approximation of the initial states {s_t:T_approx};
вычисление нормы невязки между {s_t:T} и {s_t:T_approx} (используется функция квадратичной невязки);calculating the residual norm between {s_t:T} and {s_t:T_approx} (using the quadratic residual function);
вычисление градиента ошибки по параметрам автокодировщика и нейродифференциального уравнения, выполнение шага оптимизатора ADAM в пространстве параметров модели автокодировщика;calculating the error gradient from the parameters of the autoencoder and the neurodifferential equation, executing the ADAM optimizer step in the parameter space of the autoencoder model;
если ошибка прогноза на отложенной выборке меньше предыдущего минимума, параметры модели сохраняются.if the forecast error on the deferred sample is less than the previous minimum, the model parameters are preserved.
Все описанное ранее позволяет данному техническому решению показывать высокое качество прогноза на моделях реальных месторождений, значительно сократить время расчетов при моделировании реальных пластовых систем, и обладает возможностью моделирования большого количества сценариев, без ограничения по масштабированию процесса вычислений для любых размеров пластов.All of the above allows this technical solution to show a high quality of the forecast on models of real fields, significantly reduce the calculation time when modeling real reservoir systems, and has the ability to simulate a large number of scenarios, without limiting the scaling of the calculation process for any reservoir sizes.
На указаны данные, показывающие скорость работы указанного способа и системы при разных условиях, например, при использовании CPU/GPU, с разверткой и только в сжатом пространстве, а также указана точность и ошибка при обучении и на тесте. Таким образом, при использовании заявленного способа скорость обработки 30 потоков данных составляет 9,60 сек., при этом при использовании систем на основе программного продукта tNavigator скорость обработки того же потока данных составляет около 180 сек.On the data showing the speed of the specified method and system under different conditions, for example, when using the CPU / GPU, with a sweep and only in compressed space, as well as the accuracy and error during training and on the test. Thus, when using the claimed method, the processing speed of 30 data streams is 9.60 seconds, while using systems based on the tNavigator software product, the processing speed of the same data stream is about 180 seconds.
Пример части входного файла модели, описанного ранее, может быть описан следующим образом:An example of the model input file part described earlier can be described as follows:
RUNSPECRUNSPEC
TITLE psc.reglTITLE psc.regl
MULTOUTMULTOUT
MULTOUTSMULTOUTS
STARTSTART
1 JUL 20161 July 2016
//
METRICMETRIC
OILoil
GASGAS
WATERWATER
DISGASDISGAS
DIMENSDIMENS
195 244 24 /195 244 24 /
RUNCTRLRUNCTRL
WELLEQUATIONS 1 / WATERZONE 1 / /WELLEQUATIONS 1 / WATERZONE 1 / /
TNAVCTRLTNAVCTRL
LONGNAMES 1 /LONG NAMES 1 /
//
GRIDGRID
INCLUDE 'INCLUDE/zcorn.inc' / IINCLUDE 'INCLUDE/zcorn.inc' / I
INCLUDE 'INCLUDE/coord.inc' / /INCLUDE 'INCLUDE/coord.inc' / /
INCLUDEINCLUDE
'INCLUDE/actnurn.inc' /'INCLUDE/actnurn.inc' /
На представлен общий вид вычислительной системы (200) (вычислительного устройства), пригодной для выполнения способа (100), например персональный компьютер, сервер, серверный кластер, мейнфрейм и т.п. В общем случае система (200) содержит такие компоненты, как: один или более процессоров (201), по меньшей мере одну оперативную память (202), средство постоянного хранения данных (203), интерфейсы ввода/вывода (204), средство В/В (205), средства сетевого взаимодействия (206). On the shows a general view of the computing system (200) (computing device) suitable for performing the method (100), for example, a personal computer, a server, a server cluster, a mainframe, etc. In general, the system (200) contains components such as: one or more processors (201), at least one RAM (202), persistent data storage (203), input/output interfaces (204), I/O In (205), networking tools (206).
Процессор (201) предназначен для выполнения программной логики и требуемых вычислительных операций, необходимых для функционирования системы (200). Процессор (201) исполняет необходимые машиночитаемые команды и инструкции, содержащиеся в оперативной памяти (202). Процессор (201) (или несколько процессоров, многоядерный процессор и т.п.) может выбираться из ассортимента устройств, широко применяемых в настоящее время, например, таких производителей, как: Intel™, AMD™, Apple™, Samsung Exynos™, MediaTEK™, Qualcomm Snapdragon™ и т.п. Под процессором или одним из используемых процессоров в архитектуре системы (200) также необходимо учитывать графический процессор, например, GPU NVIDIA или Graphcore, тип которых также является пригодным для полного или частичного выполнения способов реализации заявленного решения, а также может применяться для обучения и применения моделей машинного обучения. The processor (201) is designed to perform the program logic and required computing operations necessary for the operation of the system (200). The processor (201) executes the necessary machine-readable commands and instructions contained in the main memory (202). The processor (201) (or multiple processors, multi-core processor, etc.) can be selected from a range of devices currently widely used, for example, manufacturers such as: Intel™, AMD™, Apple™, Samsung Exynos™, MediaTEK ™, Qualcomm Snapdragon™, etc. Under the processor or one of the processors used in the system architecture (200), it is also necessary to take into account the graphics processor, for example, NVIDIA GPU or Graphcore, the type of which is also suitable for full or partial implementation of the methods for implementing the claimed solution, and can also be used for training and applying models machine learning.
Память (202), как правило, выполнена в виде ОЗУ и содержит необходимую программную логику, обеспечивающую требуемый функционал. Средство хранения данных (203) может выполняться в виде HDD, SSD дисков, рейд массива, сетевого хранилища, флэш-памяти, оптических накопителей информации (CD, DVD, MD, Blue-Ray дисков) и т.п. Средство (203) позволяет выполнять долгосрочное хранение различного вида информации, например, истории обработки запросов (логов), идентификаторов пользователей, данные камер, изображения и т.п.The memory (202) is typically in the form of RAM and contains the necessary software logic to provide the desired functionality. The data storage means (203) can be in the form of HDD, SSD disks, raid array, network storage, flash memory, optical information storage devices (CD, DVD, MD, Blue-Ray disks), etc. The means (203) allows long-term storage of various types of information, such as request processing history (logs), user IDs, camera data, images, etc.
Интерфейсы (204) представляют собой стандартные средства для подключения и работы с системой (200) или иными вычислительными устройствами. Интерфейсы (204) могут представлять, например, USB, RS232, RJ45, LPT, COM, HDMI, PS/2, Lightning, FireWire и т.п. Выбор интерфейсов (204) зависит от конкретного исполнения системы (200), которая может представлять собой персональный компьютер, мейнфрейм, серверный кластер, тонкий клиент, смартфон, ноутбук и т.п., а также подключаемых сторонних устройств. Interfaces (204) are standard means for connecting and working with the system (200) or other computing devices. Interfaces (204) may represent, for example, USB, RS232, RJ45, LPT, COM, HDMI, PS/2, Lightning, FireWire, and the like. The choice of interfaces (204) depends on the specific implementation of the system (200), which can be a personal computer, mainframe, server cluster, thin client, smartphone, laptop, etc., as well as connected third-party devices.
В качестве средств В/В данных (205) может использоваться: клавиатура, джойстик, дисплей (сенсорный дисплей), проектор, тачпад, манипулятор мышь, трекбол, световое перо, динамики, микрофон и т.п. As means of I/O data (205) can be used: keyboard, joystick, display (touch screen), projector, touchpad, mouse, trackball, light pen, speakers, microphone, etc.
Средства сетевого взаимодействия (206) выбираются из устройства, обеспечивающий сетевой прием и передачу данных, например, Ethernet карту, WLAN/Wi-Fi модуль, Bluetooth модуль, BLE модуль, NFC модуль, IrDa, RFID модуль, GSM модем и т.п. С помощью средства (206) обеспечивается организация обмена данными по проводному или беспроводному каналу передачи данных, например, WAN, PAN, ЛВС (LAN), Интранет, Интернет, WLAN, WMAN или GSM.Means of networking (206) are selected from a device that provides network data reception and transmission, for example, an Ethernet card, WLAN/Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem, etc. With the help of the tool (206) the organization of data exchange over a wired or wireless data transmission channel, for example, WAN, PAN, LAN (LAN), Intranet, Internet, WLAN, WMAN or GSM, is provided.
Компоненты системы (200), как правило, сопряжены посредством общей шины передачи данных. The components of the system (200) are typically connected via a common data bus.
На приведена визуализация интерфейса, на котором отражен пример применения способа, где результаты применения были усреднены по всем вычислительным ячейкам. Т.е. на приведены: синей линией (tNav) результат модели с использованием системы tNavigator, оранжевой линией (AE) представлен результат модели с использованием заявленного способа. По Оси X отложено время (месяцы), по оси Y отложены значения характеристики, усредненные по всем активным ячейкам залежи.On the the visualization of the interface is given, which shows an example of applying the method, where the results of the application were averaged over all computational cells. Those. on the are shown: the blue line (tNav) is the result of the model using the tNavigator system, the orange line (AE) is the result of the model using the claimed method. Time (months) is plotted along the X-axis, characteristic values averaged over all active cells of the deposit are plotted along the Y-axis.
Таким образом, на интерфейсе ( ) результата работы системы по заявленному способу представлено 5 моделей:Thus, on the interface ( ) the result of the system operation according to the claimed method is represented by 5 models:
soil - нефтенасыщенность, доли единицыsoil - oil saturation, fractions of a unit
swat - водонасыщенность, доли единицыswat - water saturation, fractions of a unit
sgas - газонасыщенность, доли единицыsgas - gas saturation, fractions of a unit
pressure - поровое давление, атм.pressure - pore pressure, atm.
rs - газосодержание, м3 / м3 rs - gas content, m 3 / m 3
В настоящих материалах заявки было представлено предпочтительное раскрытие осуществление заявленного технического решения, которое не должно использоваться как ограничивающее иные, частные воплощения его реализации, которые не выходят за рамки испрашиваемого объема правовой охраны и являются очевидными для специалистов в соответствующей области техники. In these application materials, a preferred disclosure of the implementation of the claimed technical solution was presented, which should not be used as limiting other, private embodiments of its implementation, which do not go beyond the requested scope of legal protection and are obvious to specialists in the relevant field of technology.

Claims (36)

  1. Компьютерно-исполняемый способ моделирования динамики нефтегазовых пластов, выполняемый с помощью по меньшей мере одного процессора, при этом способ содержит этапы, на которых:
    получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта;
    выполняют нормализацию входных данных отдельно для каждого типа характеристик входных параметров;
    осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности;
    осуществляют построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне, где прогноз осуществляется решением дифференциального уравнения в частных производных;
    выполняют перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, при этом повышают размерность с помощью сверточной нейронной сети.
    A computer-executable method for modeling the dynamics of oil and gas reservoirs, performed using at least one processor, the method comprising the steps of:
    receiving a set of input data describing the characteristics of a hydrodynamic 3D reservoir model;
    performing normalization of the input data separately for each type of characteristics of the input parameters;
    carry out the translation of the normalized input data in the latent space with a decrease in dimension;
    carry out the construction of a forecast of data on the distribution of fluids and pressures in the latent space in a given time range, where the forecast is carried out by solving a differential equation in partial derivatives;
    transferring the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, while increasing the dimension using a convolutional neural network.
  2. Способ по п.1, характеризующийся тем, что набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта, включает в себя по крайне мере следующие параметры:
    - описание 3D расчетной сетки;
    - распределение ФЕС по ячейкам залежи;
    - данные о флюидной системе;
    - данные о распределении флюидов и давлений по вычислительным ячейкам в начальный момент времени;
    - данные о системе разработки, включающие по меньшей мере траектории скважин и давление на их забое.
    The method according to claim 1, characterized in that the set of input data describing the characteristics of the hydrodynamic 3D reservoir model includes at least the following parameters:
    - description of the 3D computational grid;
    - distribution of reservoir properties by reservoir cells;
    - fluid system data;
    - data on the distribution of fluids and pressures over the computational cells at the initial moment of time;
    - data on the development system, including at least the trajectory of the wells and the pressure at their bottomhole.
  3. Способ по п.1, характеризующийся тем, что решение дифференциального уравнения в частных производных выполняется с помощью метода глубокого обучения. The method according to claim 1, characterized in that the solution of the partial differential equation is performed using a deep learning method.
  4. Способ по п.1, характеризующийся тем, что перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется путём сжатия и при этом определяется сжимающее отображение, приводящее к минимальной потере информации о состоянии залежи.The method according to claim 1, characterized in that the translation of the normalized input data into the latent space with dimensionality reduction is carried out by compression and at the same time a compressive mapping is determined, leading to a minimum loss of information about the state of the deposit.
  5. Способ по п.1, характеризующийся тем, что перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется для каждой вычислительной ячейки. The method according to claim 1, characterized in that the translation of the normalized input data into the latent space with dimensionality reduction is carried out for each computational cell.
  6. Способ по п.1, характеризующийся тем, что повышают размерность с помощью сверточной нейронной сети, которая автоматически подбирает количество нейросетевых слоев для выполнения прогноза. The method according to claim 1, characterized in that the dimension is increased using a convolutional neural network, which automatically selects the number of neural network layers to perform the prediction.
  7. Способ по п.1, характеризующийся тем, что осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности с использованием сверточной нейронной сети, осуществляющей динамическую подстройку.The method according to claim 1, characterized in that the normalized input data is translated into a latent space with dimensionality reduction using a convolutional neural network that performs dynamic adjustment.
  8. Способ по п.1, характеризующийся тем, что получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта реальных месторождений и их сегментов.The method according to claim 1, characterized in that a set of input data is obtained that describes the characteristics of a hydrodynamic 3D model of a reservoir of real fields and their segments.
  9. Способ по п.1, характеризующийся тем, что нормализацию входных данных выполняют путем вычитания среднего значения и деления на стандартное отклонение.The method according to claim 1, characterized in that the normalization of the input data is performed by subtracting the mean and dividing by the standard deviation.
  10. Способ по п.1, характеризующийся тем, что в сверточной нейронной сети, используемой для повышения размерности, используются слои Voxel Shuffle.The method according to claim 1, characterized in that the convolutional neural network used for dimensionality enhancement uses Voxel Shuffle layers.
  11. Способ по п.2, характеризующийся тем, что данные о флюидной системе, задаются в виде ОФП-таблицы и PVT-таблицы, содержащих зависимость объемного коэффициента флюида и вязкости от давления и газосодержания.The method according to claim 2, characterized in that the data on the fluid system are given in the form of an RPP table and a PVT table containing the dependence of the volumetric coefficient of the fluid and viscosity on pressure and gas content.
  12. Способ по п.2, характеризующийся тем, что в описании 3D расчетной сетки указывается число ячеек в каждом из направлений координатной оси и координаты угловых точек каждой ячейки.The method according to claim 2, characterized in that the description of the 3D computational grid indicates the number of cells in each of the directions of the coordinate axis and the coordinates of the corner points of each cell.
  13. Система моделирования динамики нефтегазовых пластов, содержащая по меньшей мере один процессор и по меньшей мере одно запоминающее устройство, хранящее машиночитаемые инструкции, которые при их выполнении процессором выполняют следующие этапы:
    получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта;
    выполняют нормализацию входных данных отдельно для каждого типа характеристик входных параметров;
    осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности;
    осуществляют построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне, где прогноз осуществляется решением дифференциального уравнения в частных производных;
    выполняют перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, при этом повышают размерность с помощью сверточной нейронной сети.
    An oil and gas reservoir dynamics simulation system, comprising at least one processor and at least one memory device storing machine-readable instructions that, when executed by the processor, perform the following steps:
    receiving a set of input data describing the characteristics of a hydrodynamic 3D reservoir model;
    performing normalization of the input data separately for each type of characteristics of the input parameters;
    carry out the translation of the normalized input data in the latent space with a decrease in dimension;
    carry out the construction of a forecast of data on the distribution of fluids and pressures in the latent space in a given time range, where the forecast is carried out by solving a differential equation in partial derivatives;
    transferring the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, while increasing the dimension using a convolutional neural network.
  14. Система по п.13, характеризующаяся тем, что набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта, включает в себя по крайне мере следующие параметры:
    - описание 3D расчетной сетки;
    - распределение ФЕС по ячейкам залежи;
    - данные о флюидной системе;
    - данные о распределении флюидов и давлений по вычислительным ячейкам в начальный момент времени;
    - данные о системе разработки, включающие по меньшей мере траектории скважин и давление на их забое.
    The system according to claim 13, characterized in that the set of input data describing the characteristics of the hydrodynamic 3D reservoir model includes at least the following parameters:
    - description of the 3D computational grid;
    - distribution of reservoir properties by reservoir cells;
    - fluid system data;
    - data on the distribution of fluids and pressures over the computational cells at the initial moment of time;
    - data on the development system, including at least the trajectory of the wells and the pressure at their bottomhole.
  15. Система по п.13, характеризующаяся тем, что решение дифференциального уравнения в частных производных выполняется с помощью метода глубокого обучения. The system according to claim 13, characterized in that the solution of the partial differential equation is performed using a deep learning method.
  16. Система по п.13, характеризующаяся тем, что перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется путём сжатия и при этом определяется сжимающее отображение, приводящее к минимальной потере информации о состоянии залежи.The system according to claim 13, characterized in that the translation of the normalized input data into the latent space with dimensionality reduction is carried out by compression and at the same time a compressive mapping is determined, leading to a minimum loss of information about the state of the deposit.
  17. Система по п.13, характеризующаяся тем, что перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется для каждой вычислительной ячейки. The system according to claim 13, characterized in that the translation of the normalized input data into the latent space with dimensionality reduction is carried out for each computational cell.
  18. Система по п.13, характеризующаяся тем, что повышают размерность с помощью сверточной нейронной сети, которая автоматически подбирает количество нейросетевых слоев для выполнения прогноза. The system according to claim 13, characterized in that the dimension is increased using a convolutional neural network, which automatically selects the number of neural network layers to perform the prediction.
  19. Система по п.13, характеризующаяся тем, что осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности с использованием сверточной нейронной сети, осуществляющей динамическую подстройку.The system according to claim 13, characterized in that the normalized input data is translated into a latent space with dimensionality reduction using a convolutional neural network that performs dynamic adjustment.
  20. Система по п.13, характеризующаяся тем, что получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта реальных месторождений и их сегментов.The system according to claim 13, characterized in that a set of input data is obtained that describes the characteristics of a hydrodynamic 3D model of a reservoir of real fields and their segments.
  21. Система по п.13, характеризующаяся тем, что нормализацию входных данных выполняют путем вычитания среднего значения и деления на стандартное отклонение.The system according to claim 13, characterized in that the normalization of the input data is performed by subtracting the mean and dividing by the standard deviation.
  22. Система по п.13, характеризующаяся тем, что в сверточной нейронной сети, используемой для повышения размерности, используются слои Voxel Shuffle.The system of claim 13, characterized in that the convolutional neural network used for dimensionality enhancement uses Voxel Shuffle layers.
  23. Система по п.14, характеризующаяся тем, что данные о флюидной системе, задаются в виде ОФП-таблицы и PVT-таблицы, содержащих зависимость объемного коэффициента флюида и вязкости от давления и газосодержания.The system according to claim 14, characterized in that the data on the fluid system are given in the form of an RPP table and a PVT table containing the dependence of the volumetric coefficient of the fluid and viscosity on pressure and gas content.
  24. Система по п.14, характеризующаяся тем, что в описании 3D расчетной сетки указывается число ячеек в каждом из направлений координатной оси и координаты угловых точек каждой ячейки.The system according to claim 14, characterized in that the description of the 3D computational grid indicates the number of cells in each of the directions of the coordinate axis and the coordinates of the corner points of each cell.
  25. Машиночитаемый носитель, содержащий компьютерную программу, при исполнении которой на компьютере процессор выполняет следующие операции:
    получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта;
    выполняют нормализацию входных данных отдельно для каждого типа характеристик входных параметров;
    осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности;
    осуществляют построение прогноза данных о распределении флюидов и давлений в латентном пространстве в заданном временном диапазоне, где прогноз осуществляется решением дифференциального уравнения в частных производных;
    выполняют перевод прогноза из латентного пространства в начальное пространство с получением данных о распределении флюидов и давлений по вычислительным ячейкам в заданном временном интервале, при этом повышают размерность с помощью сверточной нейронной сети.
    A computer-readable medium containing a computer program that, when executed on a computer, performs the following operations:
    receiving a set of input data describing the characteristics of a hydrodynamic 3D reservoir model;
    performing normalization of the input data separately for each type of characteristics of the input parameters;
    carry out the translation of the normalized input data in the latent space with a decrease in dimension;
    carry out the construction of a forecast of data on the distribution of fluids and pressures in the latent space in a given time range, where the forecast is carried out by solving a differential equation in partial derivatives;
    transferring the forecast from the latent space to the initial space with obtaining data on the distribution of fluids and pressures over the computational cells in a given time interval, while increasing the dimension using a convolutional neural network.
  26. Машиночитаемый носитель по п.25, характеризующийся тем, что набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта, включают в себя по крайне мере следующие параметры:
    - описание 3D расчетной сетки;
    - распределение ФЕС по ячейкам залежи;
    - данные о флюидной системе;
    - данные о распределении флюидов и давлений по вычислительным ячейкам в начальный момент времени;
    - данные о системе разработки, включающие по меньшей мере траектории скважин и давление на их забое.
    The computer-readable medium according to claim 25, characterized in that the set of input data describing the characteristics of the hydrodynamic 3D reservoir model includes at least the following parameters:
    - description of the 3D computational grid;
    - distribution of reservoir properties by reservoir cells;
    - fluid system data;
    - data on the distribution of fluids and pressures over the computational cells at the initial moment of time;
    - data on the development system, including at least the trajectory of the wells and the pressure at their bottomhole.
  27. Машиночитаемый носитель по п.25, характеризующийся тем, что решение дифференциального уравнения в частных производных выполняется с помощью метода глубокого обучения. The computer-readable medium according to claim 25, characterized in that the solution of the partial differential equation is performed using a deep learning method.
  28. Машиночитаемый носитель по п.25, характеризующийся тем, что перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется путём сжатия и при этом определяется сжимающее отображение, приводящее к минимальной потере информации о состоянии залежи.The machine-readable medium according to claim 25, characterized in that the translation of the normalized input data into the latent space with dimensionality reduction is carried out by compression and at the same time a compressive mapping is determined, leading to a minimum loss of information about the state of the deposit.
  29. Машиночитаемый носитель по п.25, характеризующийся тем, что перевод нормализованных входных данных в латентное пространство с понижением размерности осуществляется для каждой вычислительной ячейки. The machine-readable medium according to claim 25, characterized in that the translation of the normalized input data into the latent space with dimensionality reduction is carried out for each computational cell.
  30. Машиночитаемый носитель по п.25, характеризующийся тем, что повышают размерность с помощью сверточной нейронной сети, которая автоматически подбирает количество нейросетевых слоев для выполнения прогноза. The computer-readable medium according to claim 25, characterized in that the dimension is increased using a convolutional neural network, which automatically selects the number of neural network layers to perform the prediction.
  31. Машиночитаемый носитель по п.25, характеризующийся тем, что осуществляют перевод нормализованных входных данных в латентное пространство с понижением размерности с использованием сверточной нейронной сети, осуществляющей динамическую подстройку.The computer-readable medium according to claim 25, characterized in that the normalized input data is translated into latent space with dimensionality reduction using a convolutional neural network that performs dynamic adjustment.
  32. Машиночитаемый носитель по п.25, характеризующийся тем, что получают набор входных данных, описывающих характеристики гидродинамической 3D-модели пласта реальных месторождений и их сегментов.A computer-readable medium according to claim 25, characterized in that a set of input data is obtained that describes the characteristics of a hydrodynamic 3D model of a reservoir of real fields and their segments.
  33. Машиночитаемый носитель по п.25, характеризующийся тем, что нормализацию входных данных выполняют путем вычитания среднего значения и деления на стандартное отклонение.The computer-readable medium according to claim 25, characterized in that the normalization of the input data is performed by subtracting the mean and dividing by the standard deviation.
  34. Машиночитаемый носитель по п.25, характеризующийся тем, что в сверточной нейронной сети, используемой для повышения размерности, используются слои Voxel Shuffle.The machine-readable medium of claim 25, characterized in that the convolutional neural network used for dimensionality enhancement uses Voxel Shuffle layers.
  35. Машиночитаемый носитель по п.26, характеризующийся тем, что данные о флюидной системе, задаются в виде ОФП-таблицы и PVT-таблицы, содержащих зависимость объемного коэффициента флюида и вязкости от давления и газосодержания.A computer-readable medium according to claim 26, characterized in that the data on the fluid system are given in the form of an RPP table and a PVT table containing the dependence of the volumetric coefficient of the fluid and viscosity on pressure and gas content.
  36. Машиночитаемый носитель по п.26, характеризующийся тем, что в описании 3D расчетной сетки указывается число ячеек в каждом из направлений координатной оси и координаты угловых точек каждой ячейки.A computer-readable medium according to claim 26, characterized in that the description of the 3D computational grid indicates the number of cells in each of the directions of the coordinate axis and the coordinates of the corner points of each cell.
PCT/RU2021/050246 2020-07-30 2021-07-29 Method and system for modeling oil and gas formation dynamics WO2022025806A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2020125337 2020-07-30
RU2020125337A RU2020125337A (en) 2020-07-30 2020-07-30 Method and system for modeling the dynamics of oil and gas reservoirs

Publications (1)

Publication Number Publication Date
WO2022025806A1 true WO2022025806A1 (en) 2022-02-03

Family

ID=80036611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2021/050246 WO2022025806A1 (en) 2020-07-30 2021-07-29 Method and system for modeling oil and gas formation dynamics

Country Status (2)

Country Link
RU (1) RU2020125337A (en)
WO (1) WO2022025806A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115220101A (en) * 2022-06-21 2022-10-21 中国石油大学(华东) Modeling method for deep clastic rock sand body sediment structure

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114492213B (en) * 2022-04-18 2022-07-01 中国石油大学(华东) Wavelet neural operator network model-based residual oil saturation and pressure prediction method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005119298A2 (en) * 2004-06-03 2005-12-15 Schlumberger Holdings Limited Method for generating a 3d earth model
RU2582482C1 (en) * 2012-03-30 2016-04-27 Лэндмарк Графикс Корпорейшн System and method for automatic local grinding mesh in reservoir simulation system
US20200226311A1 (en) * 2019-01-16 2020-07-16 Saudi Arabian Oil Company Reservoir regions management with unstructured grid reservoir simuation model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005119298A2 (en) * 2004-06-03 2005-12-15 Schlumberger Holdings Limited Method for generating a 3d earth model
RU2582482C1 (en) * 2012-03-30 2016-04-27 Лэндмарк Графикс Корпорейшн System and method for automatic local grinding mesh in reservoir simulation system
US20200226311A1 (en) * 2019-01-16 2020-07-16 Saudi Arabian Oil Company Reservoir regions management with unstructured grid reservoir simuation model

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
M.V. SIMONOV, A.V. PENIGIN, A.S. MARGARIT, A.A. PUSTOVSKIKH, N.A. SMIRNOV, A.N. SITNIKOV, I.A. ZHDANOV, A.M. ALEKSEEVA, A.S. MARGA: "Metodologiya postroyeniya metamodeley i perspektivy ikh primeneniya dlya resheniya aktual'nykh zadach neftyanogo inzhiniringa [Methodology for constructing metamodels and prospects for their application for solving urgent problems of petroleum engineering]", MAGAZINE "PRONEFT", no. 2 (12), 31 May 2019 (2019-05-31), Russia, pages 48 - 53, XP009534835, ISSN: 2587-7399, DOI: 10.24887/2587-7399-2019-2-48-53 *
O.V. ZOTKIN, M.V. SIMONOV, A.E. OSOKINA, A.M. ANDRIANOVA, A.S. MARGARIT, V.A. TIMOSHENKO, S.F. LEBEDEV: "Novyi podkhod k doutochneniiu prognozov proksi-modelei plasta s pomoshchiu algoritmov mashiennogo obucheniia [A NEW APPROACH TO REFINING PROXY RESERVOIR MODEL PREDICTIONS USING MACHINE LEARNING ALGORITHMS]", NEFTIANOE KHOZIAISTVO [JOURNAL "OIL INDUSTRY], no. 12, 30 November 2018 (2018-11-30), XX , pages 60 - 63, XP009534837, ISSN: 0028-2448, DOI: 10.24887/0028-2448-2019-12-60-63 *
TEMIRCHEV P.; SIMONOV M.; KOSTOEV R.; BURNAEV E.; OSELEDETS I.; AKHMETOV A.; MARGARIT A.; SITNIKOV A.; KOROTEEV D.: "Deep neural networks predicting oil movement in a development unit", JOURNAL OF PETROLEUM SCIENCE AND ENGINEERING, ELSEVIER, AMSTERDAM,, NL, vol. 184, 20 September 2019 (2019-09-20), NL , XP085943991, ISSN: 0920-4105, DOI: 10.1016/j.petrol.2019.106513 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115220101A (en) * 2022-06-21 2022-10-21 中国石油大学(华东) Modeling method for deep clastic rock sand body sediment structure

Also Published As

Publication number Publication date
RU2020125337A3 (en) 2022-01-31
RU2020125337A (en) 2022-01-31

Similar Documents

Publication Publication Date Title
He et al. Reduced-order modeling for compositional simulation by use of trajectory piecewise linearization
US10198535B2 (en) Methods and systems for machine-learning based simulation of flow
US9187984B2 (en) Methods and systems for machine-learning based simulation of flow
US10087721B2 (en) Methods and systems for machine—learning based simulation of flow
Wang et al. Efficient uncertainty quantification and data assimilation via theory-guided convolutional neural network
WO2022025806A1 (en) Method and system for modeling oil and gas formation dynamics
Yang et al. A fully implicit constraint-preserving simulator for the black oil model of petroleum reservoirs
WO2012030457A1 (en) Computer-implemented systems and methods for forecasting performance of polymer flooding of an oil reservoir system
He et al. Deep reinforcement learning for generalizable field development optimization
Deng et al. Machine-learning-assisted closed-loop reservoir management using echo state network for mature fields under waterflood
US11501038B2 (en) Dynamic calibration of reservoir simulation models using pattern recognition
Chen et al. Automatic fracture optimization for shale gas reservoirs based on gradient descent method and reservoir simulation
Singh et al. Multiscale methods for model order reduction of non-linear multiphase flow problems
Sorek et al. Model order reduction and control polynomial approximation for well-control production optimization
Nakashima et al. Near-well upscaling for three-phase flows
Chen et al. Transfer learning-based physics-informed convolutional neural network for simulating flow in porous media with time-varying controls
US20230184061A1 (en) Machine Learning with Physics-based Models to Predict Multilateral Well Performance
US11499397B2 (en) Dynamic calibration of reservoir simulation models using flux conditioning
Wang et al. A deep learning based surrogate model for reservoir dynamic performance prediction
Chaki et al. A Proxy Flow Modelling Workflow to Estimate Gridded Dynamic Properties and Well Production Rates by Deep Learning Algorithms
Gerstenberger et al. Computing gravity-driven viscous fingering in complex subsurface geometries: A high-order discontinuous Galerkin approach
Narasingam Operator theoretic model predictive control of moving boundary dynamical systems: Application to hydraulic fracturing
Rezaei et al. Applications of Machine Learning for Estimating the Stimulated Reservoir Volume (SRV)
US20230140905A1 (en) Systems and methods for completion optimization for waterflood assets
US20230142526A1 (en) Systems and methods of predictive decline modeling for a well

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21850301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21850301

Country of ref document: EP

Kind code of ref document: A1