WO2018019355A1 - Method and device for the computer-aided analysis of at least one second input vector of a target system - Google Patents

Method and device for the computer-aided analysis of at least one second input vector of a target system Download PDF

Info

Publication number
WO2018019355A1
WO2018019355A1 PCT/EP2016/067627 EP2016067627W WO2018019355A1 WO 2018019355 A1 WO2018019355 A1 WO 2018019355A1 EP 2016067627 W EP2016067627 W EP 2016067627W WO 2018019355 A1 WO2018019355 A1 WO 2018019355A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
processing
input
vectors
layer
Prior art date
Application number
PCT/EP2016/067627
Other languages
German (de)
French (fr)
Inventor
Alexander Michael Gigler
Ralph Grothmann
Stefanie VOGL
Hans-Georg Zimmermann
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to PCT/EP2016/067627 priority Critical patent/WO2018019355A1/en
Priority to CN201680089552.1A priority patent/CN109716359A/en
Priority to EP16751207.8A priority patent/EP3472759A1/en
Publication of WO2018019355A1 publication Critical patent/WO2018019355A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the invention relates to a method and a device for computer-aided analysis of at least one second input vector of a target system.
  • an input vector of a target system to a computer-aided ana ⁇ lyse, thereby to determine certain properties of the target system.
  • tissue In particular, in the medical field it is often necessary to be able to make a statement about (biological) tissue.
  • the target system is the tissue and the input vector comprises acquired information about the tissue.
  • analysis or evaluation of such an input vector is difficult and complicated, it is desirable to determine as simply as possible the properties of the target system, such as tumor tissue, from the input vector.
  • An object of the present invention is to provide a method and a device which make it possible to model an input vector of a target system as simply as possible.
  • the invention relates to a method for computer-aided configuration of a deep neuron len Network on the basis of a training system with the following Ver ⁇ method steps:
  • the deep neural network is a feed-forward network which
  • the first input vectors are each transmitted via the input layer to one of the hidden layers as first processing vectors
  • the first processing vectors are each transmitted between the hidden layers, each for a hidden layer a respective first data transformation of the transmitted first processing vectors are performed, in the respective first data transformation a dimension reduction of the first processing vectors takes place for a respective hidden layer
  • the hidden layers are configured on the basis of the dimensionally reduced first processing vectors and the respective associated first output vectors.
  • computer can be construed as broadly as possible to cover in particular all electronic devices with data processing properties , Computers can thus be, for example, personal computers, servers, handheld computer systems, pocket PC devices, mobile devices and other communication devices that can handle computer-aided data, processors and other electronic data processing equipment.
  • “computer-aided” can be understood to mean, for example, an implementation of the method in which, in particular, a processor carries out at least one method step of the method.
  • a processor can be understood as meaning, for example, a machine or an electronic circuit.
  • a processor may, in particular, be a main processor (Central Processing Unit, CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc act.
  • a processor may, for example, also be an integrated circuit (IC), in particular an FPGA (field programmable gate array) or an ASIC (application-specific integrated circuit). or a DSP (Digital Signalprozes ⁇ sor, engl. Digital signal Processor) act.
  • a processor can be understood as a virtualized processor or a soft CPU.
  • a programmable processor which is equipped with configuration steps for the execution of said method according to the invention or is configured with configuration steps such that the programmable processor the features of the method according to the invention, the component, the security module, or other aspects and Operaas ⁇ pects of the invention implemented.
  • a "memory unit" can be understood as meaning, for example, a memory in the form of random access memory (RAM) or a hard disk. or a storage unit for storing program instructions.
  • the processor is specially set up to execute the program instructions in such a way that the processor carries out functions in order to implement the method according to the invention or a step of the method according to the invention.
  • a “System”, and in particular a training system and / or a target system, a technical system, a biological ⁇ ULTRASONIC system or a chemical system invention in connection with the ER, for example, are understood.
  • a system can thus, in particular the behavior or properties of describe biological tissues, oils or lubricants that are, in particular, calculable from measured parameters (input vectors) of the system by means of a trained deep neural network
  • the system in question may in particular be a complex system, wherein an analysis of measured properties, is very difficult to carry out especially in the form of input vectors, the complex system.
  • a "real-time" can be understood, for example, as performing an analysis during a patient's operation, wherein the analysis of (second) input vectors preferably takes place immediately after the detection of these input vectors, and wherein the analysis is preferably not or only minimally brings Ver ⁇ prolongation of the duration of the operation with them.
  • an analysis and their duration may be "real time” means that voted preferably reliably within a reserved time, for example during an operation or operation of a technical system, results may lie ⁇ remote ,
  • an “input vector” can be ver ⁇ were related to the invention, for example, measured properties of the system.
  • input vectors of the training system used for training referred to as first input vectors.
  • second input vectors More particularly, to analyzed ⁇ Rende input vectors, for example, measured properties of the Target system, referred to as second input vectors.
  • classification may, for example, be understood to mean an analysis of input vectors, in particular of the second input vectors, with respect to predetermined sought-after properties tissue or tumor tissue ⁇ be "understood.
  • a classification result can be understood to mean the second output vectors which result in an analysis of the second input vectors by means of the trained deep neural network.
  • an output vector can-making in relation to the ER, for example, a result of analysis of the entranc ⁇ bevektors be understood in particular an output vector comprises at least one analysis result or a requested egg ⁇ genschaft, such as whether it is tumor tissue. or healthy tissue of the (target) system and a jeweili ⁇ ger input vector comprises in particular at least one A ⁇ output variable which will affect the desired property or the Analyseer ⁇ result.
  • output vectors of the training system which are used for training, called ers ⁇ te output vectors.
  • the inventive method is particularly suited to determine a tissue type, for example, tumor tissue or healthy tissue, or a probability of disease and especially in the form of a (second) output vector setmonizu ⁇ .
  • output vectors comprising in particular an analysis result of the target system, or of a second ⁇ transfer vectors are referred to as second output vectors.
  • first data transformation may each have a data transformation for the dimensional reduction of a respective processing vector for each ⁇ wells a hidden layer of deep neural network to be understood in conjunction with the invention.
  • a "second data transformation” may be understood in connection with the invention, one data transformation to data reconstruction for each dimension-reduced processing vector, which was calculated for each a respective hidden layer of deep neural network.
  • a "training system” can be understood as meaning, for example, one or more training systems which have a similar or identical system behavior first input ⁇ vectors include.
  • the training system and whose behavior is modeled with respect to the first input vectors in response to the first output vectors in training the tie ⁇ fen neural network.
  • the first output ⁇ vector comprises a first analysis result of the input vectors of the same modality. This means, for example, that in particular NIR spectra can be used as the first input vectors, but the first output vectors for training need not be a direct analysis of the NIR spectra.
  • a target system may, for example, be understood to mean a system to be analyzed, for example, a target system may be biological tissue to determine whether it is tumor tissue or healthy tissue.
  • input vectors to be analyzed for the target system are referred to as second input vectors.
  • a second input vector of Zielsys ⁇ tems can also be called a dummy record.
  • the training system and the target system may be different systems or identical systems.
  • a "model” may, for example, be understood as a data structure, in particular for modeling a system.
  • a "feed-forward network” can be understood, for example, to mean a neural network having a plurality of layers connected to one another.
  • the bonded layers include an input ⁇ layer for inputting input vectors, at least a comparable stuck layer for modeling of a system (eg. B. Trai ⁇ beginnings system) or for analyzing input vectors of a system (eg., Target system), and an output layer for Ausga ⁇ be a result of the analyzing.
  • the individual layers each comprise one or more neurons, which are configured, for example, when training the deep neural network.
  • a "deep neural network”, for example, a neural network or a neural network can in connection with the invention will be understood that in contrast to conventional neural networks comprising more than one hidden layer.
  • the Informationsverar ⁇ processing takes place (in particular the analysis of an input vector ) in front- preferably in many consecutive hidden layers.
  • a transmission of proces ⁇ tung vectors between the hidden layers, preferably only to the directly subsequent hidden layer takes place.
  • the analysis of the input vector can (in particular ⁇ sondere the information processing) are carried out in cascade or chained in the hidden layers. In particular, thus a cascaded processing input ⁇ vectors or vectors processing is made possible.
  • a deep neural network may comprise a plurality of consecutive hidden layers, which in particular perform cascaded information processing.
  • hierarchical information processing in the hidden layers can thereby be realized.
  • analysis results can be transmitted directly to the output layer (eg. As a feature extraction) of a respective layer, or it is at ⁇ play, a specific analysis result of a particular layer, in particular, a predetermined criterion (for. Example, reaching a certain dimension of the processing vector) that transmits output layer.
  • a concatenation or concatenation of the hidden layers can be understood,
  • a result of information processing of a respective hidden layer serves as an input vector or processing vector for the respective layer of the subsequent hidden layer.
  • “Cascaded processing” may be understood in connection with the invention, for example a concatenated processing entranc ⁇ bevektoren or processing vectors.
  • the respective first data transformation can either be an integral part of the respective hidden layer concerned (for example the first hidden layer) or can be a preprocessing step for the particular hidden layer concerned.
  • the respective Subject Author ⁇ fenden hidden layer of dimensionally reduced input vector ⁇ or dimensionally reduced processing vector is transmitted to the subsequent hidden layer. This will especially in the analysis or information processing in the hidden layers
  • a feature extraction for the respective dimension-reduced input vector or the dimension-reduced processing vector can be performed in each case.
  • feature extraction may be helpful in configuring the deep neural network or configuring the hidden layers to configure the hidden layers based on the first output vectors.
  • the first output vectors for the respective hidden layers can comprise known features.
  • the comparable infected layers can be performed, for example, using a ⁇ Ver equalization of the known characteristics of the extracted features of the respective layer.
  • a weighting and / or deleting and / or inserting of neurons in the hidden layers can be understood .
  • weights of corresponding connectors of the neurons can also be adapted during the configuration
  • the method is particularly advantageous in that a tumor occurs in critical tissue (eg, brain).
  • critical tissue eg, brain
  • the correct classification of the border areas between healthy and affected cells / tissue is crucial.
  • provide diagnostic imaging procedures that are applied in advance of the operation for which Opera ⁇ tion planning a significant contribution, but can only be used for limited representation and identification of the tumor in particular during the operation.
  • NIR near-infrared spectroscopy
  • tissue properties can additionally be analyzed which, in particular, reflect the spectral properties of the present tissue during the operation in real time and can be used, for example, to distinguish the tumor cells from the surrounding healthy tissue.
  • recorded spectra can be used as the first input vectors and tissue sections that indicate whether han ⁇ delt to tumor tissue, are used as the first output vectors.
  • Insbesonde- re capable coached deep neural network for automatic ⁇ tarrae differentiation of different cell / tissue types are used and thus, for example, provide the operating ⁇ the doctor an additional decision support for the Abgren ⁇ Zung between tumor and non-tumor cells available ,
  • the method according to the invention is advantageous in analyzing the spectra of healthy cells or tissue and tumor cells / tumor tissue, which differ in particular only by complex, difficult-to-identify properties.
  • the erfindungsge ⁇ Permitted method is able to identify these preferably exactly difficult to identify properties and in particular ⁇ sondere for solving the actual classification task (analysis, whether they are healthy tissue or tumor tissue han ⁇ delt) to be used.
  • the method according to the invention is able to compensate for measurement errors in the recorded spectra or first input vectors. In particular, this avoids lengthy measurement error correction of the input vectors.
  • the process of the invention is able, on the one hand, for example, the recorded raw data from the NIR spectroscopy (input vectors) preparation steps without further preprocessing, for example, measurement error corrections work and ver ⁇ other hand, for example, the complex classification ⁇ fikationsaufgabe (distinction between healthy tissue or tumor ⁇ tissue) to solve with very good performance, for example in mög ⁇ lichst short time to real-time.
  • the deep neural network can be trained, for example, with a test data set with the inventive method to obtain very good classification preferably ⁇ results (output vector) on a second input vector.
  • an application of the trained deep neural network as a pure input-output Rela ⁇ tion on second input vectors by implementing an appropriate software can be easily implemented.
  • the inventive method is preferably not brain tumors on overall and fixed the like but can be expan ⁇ tern particular more types of tissue such as bone.
  • health data can also be analyzed in order to determine a probability of an occurrence of a specific disease, for example diabetes, for example on the basis of genetic markers and / or medication income and / or previous illnesses and / or laboratory values
  • the method is preferably not limited to medical applications, but in particular also spectral data or input vectors of liquids or gases can be examined.
  • the ers ⁇ th input vectors measured spectra of the training system, with the first output vectors are already carried out Analy ⁇ setent for the spectra.
  • the measured spectra include spectra of tissue and the performed analysis results indicate whether a spectrum is to be assigned to healthy tissue or to tumor tissue.
  • the measured spectra include spectra of oils or lubricants
  • the analysis results performed include a quality of the oils or lubricants.
  • the method is particularly advantageous in order to make, for example, a statement about the quality, in particular an expected error of extracted features of a dimension-reduced first processing vector of a hidden layer, for example, the relevant hidden ⁇ th layer.
  • the determined error is taken into account for configuring the respective relevant hidden layers or the respective subsequent hidden layer to which the dimension-reduced first processing vector is transmitted.
  • the method is particularly advantageous in order to thereby improve an accuracy of the classification result.
  • the training system is modeled more accurately, and in particular, a quality of features extracted, for example, by the hidden layer from the processing vector (s) can be improved. In this way, for example, errors in the extracted features can be reduced.
  • a number of hidden layers is determined from a dimension to be achieved of the dimension-reduced first input vector.
  • the method is particularly advantageous in order to keep the number of hidden layers for a particular classification task as low as possible and to avoid the unnecessary calculation ⁇ special cuts.
  • the invention relates to a method for computer-assisted analyzing at least one second input vector of a target system with the following Ver ⁇ method steps:
  • the deep neural network is a feed-forward network which
  • Input vector for the target system comprising a plurality of consecutive hidden layers that model the target system
  • Output vector for the target system comprises evaluating the second input vector, wherein the second input vector is transmitted in each case via the input ⁇ layer to one of the hidden layers as a two-ter processing vector, the second vector processing each transmitted between the hidden layers,
  • the second output vector is determined using a dimensionsre ⁇ nineteend second processing vector
  • the method is particularly advantageous in that a tumor occurs in critical tissue (eg, brain).
  • critical tissue eg, brain
  • the correct classification of the border areas between healthy and affected cells / tissue is crucial.
  • provide diagnostic imaging procedures that are applied in advance of the operation for which Opera ⁇ tion planning a significant contribution, but can only be used for limited representation and identification of the tumor in particular during the operation.
  • NIR near-infrared spectroscopy
  • tissue properties can additionally be analyzed which, in particular, reflect the spectral properties of the present tissue during the operation in real time and can be used, for example, to distinguish the tumor cells from the surrounding healthy tissue.
  • the method according to the invention is advantageous in analyzing the spectra of healthy cells or tissue and tumor cells / tumor tissue, which differ in particular only by complex, difficult-to-identify properties.
  • the erfindungsge- Permitted method is capable preferably precisely identify these difficult to identify properties and in particular ⁇ sondere for solving the actual Klasstechnischsaufga ⁇ be, for example, an analysis of whether it is healthy tissue ⁇ be or tumor tissue to be used.
  • the inventive method is able to compensate for measurement errors in the recorded spectra or first input vectors. In particular, this avoids lengthy measurement error correction of the input vectors.
  • the second input vectors or the second processing vectors undergo a plurality of hidden layers for analysis, wherein the dimension reduction of the respective second input vectors or of the respective second processing vectors is carried out in each case for each hidden layer.
  • an analysis of the second processing vectors can then be carried out, for example.
  • the dimension of the second processing vectors is thus gradually reduced in communicating between the hidden layers, especially a cascaded transfer, preferably up to the second processing vector is reached a predetermined re ⁇ -induced dimension and transmitted to the output layer as the second output vector.
  • the method according to the invention is able, on the one hand, for example, the recorded raw data of the NIR spectroscopy (input vectors) without further Vorverarbei ⁇ processing steps, for example, measurement error corrections to ver ⁇ work and on the other hand, for example, the complex classification ⁇ task (differentiation of healthy tissue or tumor tissue) to solve with very good performance.
  • an application of the trained deep neural network as a pure input-output relation on the second input vectors can be easily realized by an implementation in suitable software.
  • the method according to the invention is preferably not restricted to brain tumors and the like, but can in particular be applied to other types of tissue such as e.g. Expand bones.
  • Health data for example, can also be analyzed with the method according to the invention in order, for example, to ascertain a probability of occurrence of a specific disease, for example diabetes, on the basis of genetic markers and / or medication revenues and / or previous illnesses and / or laboratory values
  • the method is preferably not limited to medical applications, but in particular also spectral data or input vectors of liquids or gases can be examined.
  • the second input vector is a measured spectrum of the target system.
  • the measured spectrum is a spectrum of tissue, wherein the second output vector in particular indicating whether it is healthy tissue Ge ⁇ or tumor tissue.
  • the measured spectrum is a spectrum of oils and / or lubricants, wherein the second output vector indicative of a particular quality ⁇ ty of oils or lubricants.
  • the method is particularly advantageous in order to make, for example, a statement about the quality, in particular an expected error of extracted features of a dimension-reduced first processing vector of a hidden layer, for example, the relevant hidden ⁇ th layer.
  • the determined error, for configuring the respective relevant hidden layer or the respective subsequent hidden layer, to which the dimension-reduced first processing vector is transmitted is taken into account.
  • the method is particularly advantageous in that thereby an accuracy of the classification result is improved.
  • the target system and its behavior is modeled more accurately, and in particular a Quality of features that are extracted, for example, by the layer ⁇ exposed from the processing vector / s can be improved. In this way, for example, errors in the extracted features can be reduced.
  • the trained deep neural network further during a Analy ⁇ se of second input vectors of a target system.
  • a number of hidden layers is determined from a dimension to be achieved of the dimensionally-reduced second processing vector.
  • the method is particularly advantageous in order to keep the number of hidden layers for a particular classification task as low as possible and to avoid the unnecessary calculation ⁇ special cuts.
  • the invention relates to a configuration apparatus for the computer-aided configuration of a deep neural network based on a training system, comprising:
  • a first provisioning module for providing training data with predetermined first input vectors and predetermined first output vectors for the training system
  • the deep neural network is a feed-forward network, which
  • a first training module for training the deep neural network based on the training data, wherein the first input vectors are each transmitted via the input layer to one of the hidden layers as first processing vectors, the first processing vectors are each transmitted between the hidden layers, each for a hidden layer a respective first data transformation of the transmitted first processing vectors are performed, in the respective first data transformation a dimension reduction of the first processing vectors takes place for a respective hidden layer,
  • the hidden layers are configured based on the dimensionally reduced first processing vectors and the respective associated first output vectors.
  • the invention relates to a Ana ⁇ lytic apparatus for computer-aided analyzing at least one second input vector of a target system comprising: a third supplying module for supplying the second input vector for the target system;
  • a fourth provisioning module for providing a trained deep neural network, wherein
  • the neural network is a feed-forward network, which
  • an input layer for inputting the second input vector for the target system comprising a plurality of consecutive hidden layers modeling the target system
  • the second input vector is transmitted in each case via the input ⁇ layer to one of the hidden layers as second processing vector, the second processing vector is transferred between the hidden layers,
  • a fifth provisioning module for providing the second output vector.
  • a variant of the computer program product with program instructions for configuring a creation device for example a 3D printer or for creating processors and / or devices, claimed, wherein the creation device is configured with the program commands such that said configuration device according to the invention ⁇ direction and / or the analysis device is created.
  • a provision device for storing and / or providing the computer program product is claimed .
  • the provisioning device is, for example, a data carrier which stores and / or makes available the computer program product.
  • the provisioning device is, for example, a network service, a computer system, a server system, in particular a distributed computer system, a cloud-based computer system and / or virtual computer system which Computerpro ⁇ program product preferably in the form of a data stream stores and / or provides.
  • This provision takes place, for example, as a download in the form of a program data block and / or command data block, preferably as a file, in particular as a download file, or as a data stream, in particular as a download data stream, of the complete computer program product.
  • This provision for example, but also as a partial download SUC ⁇ gen, which consists of several parts, in particular through a peer-to-peer network downloaded or is provided as a data stream.
  • Such a computer program product is read into a system using the provision device in the form of the data carrier, for example, and executes the program instructions so that the method according to the invention is executed on a computer or the configuration device is configured in such a way that the configuration device according to the invention and / or created the analyzer.
  • FIG. 1 shows a flowchart of a first exemplary embodiment of the method according to the invention for the computer-aided configuration of a deep neural network on the basis of a training system
  • FIG. 2 shows a flow chart of a further exemplary embodiment of the method according to the invention for computer-aided analysis of at least one second input vector of a target system; 3a-b data structures of a deep neural network of further embodiments of the invention;
  • the following exemplary embodiments have at least one processor and / or a memory device in order to implement or execute the method.
  • FIG. 1 shows a flow chart of a first exemplary embodiment of the method according to the invention for the computer-aided configuration of a deep neural network on the basis of a training system.
  • the method comprises a second method step 120 for providing the deep neural network, wherein the deep neural network is a feed-forward network.
  • the feed-forward network includes an input layer for inputting the first ⁇ A transfer vectors and a plurality of successive layers comparable infected for modeling the training system.
  • the method comprises a third method step 130 for training the deep neural network on the basis of the training data, wherein the first input vectors are each transmitted via the input layer to one of the hidden layers as first processing vectors.
  • the first processing vectors are additionally each be transferred between the hidden layers and are each a hidden layer having a respective first data transformation of transmitted via ⁇ first processing vectors performed.
  • a dimension reduction of the first processing vectors for a particular hidden layer takes place and the hidden layers are configured on the basis of the dimensionally reduced first processing vectors and the respective associated first output vectors.
  • FIG. 2 shows a flow chart of a further embodiment of the method according to the invention for computer-aided analysis of at least one second input vector of a target system.
  • 2 shows a method for computer-aided analysis of at least one second input vector of a target system with a first method step 210 for providing the second input vector for the target system.
  • the method includes a second method step 220 for providing a trained deep neural network, wherein the deep neural network is a feed-forward network.
  • the feed-forward network includes an input layer for entering the second input vector for the target system, a plurality of consecutive hidden layers modeling the target system, and an output layer for outputting a second output vector for the target system.
  • the method includes a third step 230 to evaluate the second input vector, said second entranc ⁇ bevektor is transmitted as the second processing vector respectively using the input layer on one of the ver ⁇ inserted layers and the second processing vector is in each case transmitted between the hidden layers.
  • a respective first trans- is performed formation of the transferred second processing vector addition in each case for a hidden layer, and it is carried out at the respective first data ⁇ transformation a dimensional reduction of the second processing vector each for a respective hidden layer.
  • the second output vector is additionally determined on the basis of a dimension-reduced second processing vector.
  • the dimension-reduced second processing vector can be, for example, a multiply dimensionally reduced second processing vector.
  • the multi-dimension-reduced second processing vector that is to say a second processing of the vector was gradually processed by multiple hidden layers, to, for example, the Distancefachdimensions- reduced second vector processing has reached a predetermined dimen sion ⁇ .
  • the method includes a fourth method step 240 for providing the second output vector.
  • a processor is specially adapted to execute program instructions in such a way as to enable Processor performs functions according to the invention Ver ⁇ drive the, or at least to implement one of the steps of the inventive method ⁇ SEN.
  • the method explained in FIG. 1 and / or in the FIG. 2 process is particularly suitable in an operation, in particular of malignant tumors to ermit ⁇ stuffs whether indeed preferably all infected cells were removed from the affected area.
  • This has the advantage, in particular, of preventing the tumor from spreading or re-forming.
  • This is particularly of ent ⁇ critical importance when the tumor occurs in critical tissue, that is, when by the removal of healthy cells can cause permanent damage to the patient (z. B. with brain tumors).
  • the correct classification of the boundaries between healthy and affected cells is crucial.
  • imaging diagnostic procedures that are used in the run-up to surgery can make an important contribution to surgical planning.
  • these imaging diagnostic procedures can be limited to imaging and identification of the tumor during surgery.
  • NIR near Inf ⁇ rarot
  • the recorded spectra can be used as (second) input vectors for automated differentiation of the different cell types.
  • the invention provides the surgeon to a ⁇ additional decision support in the demarcation between Tu ⁇ tomorrow and non-tumor cells (or tissue) are available.
  • differentiation of tumor cells and healthy tissue from recorded NIR spectra is difficult with conventional methods, as the distinguishing features are difficult to identify in the NIR spectra.
  • the output vector can be brought into a predetermined form with the aid of a corresponding configuration of the deep neural network. It is possible, for example, to bring the output vector into a form of a probability statement about the affiliation, for example healthy or diseased tissue, of the measured sample.
  • the deep neural network in particular as an input / output relation on second input vectors, as explained in FIG. 2, preferably apply real-time implementation using suitable software.
  • the architecture allows the deep neural network, in particular by the plurality of successive hidden layers for modeling the training system, a smooth extension of the Klas ⁇ shuisaufgabe to other tissue types. It would be conceivable, for example, additionally to introduce a classification of bone material or fatty tissue.
  • inventive methods to be able, in particular, the spectra of healthy cells and Tu ⁇ morzellen to differentiate, distinguish the particular difficulties identifiable characteristics.
  • conventional clustering methods based on similarity analyzes are not suitable for this.
  • FIG. 3 a shows a data structure of a deep neural network of a further exemplary embodiment of the invention, with FIG. 3 a in particular representing a possible architecture of the deep neural network.
  • this architecture of a deep neural network can be used by the method according to the invention from FIG. 1 or the method according to the invention from FIG. 2.
  • Figure 3a shows an input layer E for input vector input, a plurality of consecutive hidden layers, and an output layer 0 for output of an output vector.
  • the plurality of hidden layers comprises a total of four layers, in particular a first hidden layer VS1, a second hidden layer VS2, a third hidden layer VS3 and a fourth hidden layer VS4.
  • the first processing vector is performed to reduce its dimensions.
  • the first hidden layer VS1 analyzes the dimension-reduced first processing vector and extracts by means of a function a from this, for example, features y. These features y are then compared with the already ex ⁇ trah striv features of a predetermined first output vector and based on the determined differences (or also called the error) to be configured, the neurons of the first layer.
  • the dimension-reduced first processing vector of the subsequent hidden layer (second hidden layer VS2) is transmitted.
  • second hidden layer VS2 for example, a data transformation B, another Dimensionsre ⁇ production of dimensionally reduced first processing vector which hide from the first layer VS1 was transmitted dimensionally reduced, is carried out by means of a first data transformation.
  • the second hidden layer VS2 analyzes the multiple (twice) dimension-reduced first processing vector and extracted by means of a function B of this example, again features ⁇ y. These features y are then compared with other already extracted features of the predetermined first output vector, and based on the determined differences, the neurons of the second layer VS2 are configured.
  • the output layer 0 is in particular repeatedly (4 times) passed dimensionally reduced first processing vector, compared with the first output vector and possibly determined differences between the multi-dimensional reduced first proces ⁇ weight vector and the first output vector.
  • the output layer neurons or the output layer can then be configured ent ⁇ speaking the determined differences.
  • An analysis of a second input vector differs in particular in that, for example, the features are extracted in the hidden layers without, for example, undertaking a further configuration of the hidden layers or determining an error between the extracted features and a predetermined first output vector.
  • the extracted features may be included in the output vector, for example, for ⁇ Ana lysis or it is for the output vector, for example, only the extracted features of the last hidden layer, in this embodiment, the fourth hidden layer VS4 considered. It is also conceivable that, for example, a multi-dimensi ⁇ onsredu avoider processing vector of the output layer is transmitted as output vector when one particular was reached before ⁇ given dimension of the multi-dimensional reduced processing vector.
  • the hidden layers for deep neural network training or for analysis of input vectors, the input vectors or the processing vectors preferably only transmit the subsequent directly adjacent layer.
  • the input layer can either be the input vectors directly to a given hidden layer, for example the first hidden layer.
  • te layer VS1 pass or a matching hidden
  • the deep neural architecture may be used
  • FIG. 3a Network be expanded from Fig. 3a. This is illustrated for example in FIG. 3b.
  • Tion in addition to the configuration already explained in Fig. 3a may be calculated in Fig. 3b from the respective dimension-reduced vector processing of a hidden layer, each having a second data transformation for each of the corresponding hidden layer, a reconstructed proces ⁇ tung vector.
  • the second data transformation attempts to undo the dimension reduction for the particular hidden layer.
  • the original processing vector ie the vector processing for the corresponding hidden layer, which has not yet dimensionally reduced, compared with the reconstructed processing vector, and if necessary differences are determined Zvi ⁇ exploiting that or error between them.
  • the error detected can then for example be used to improve the respective hidden layer for which the proces ⁇ tung vector has been dimensionally reduced by the respective hidden layer is adjusted based on the error or configured, for example, so insbesonde ⁇ re the neurons of the corresponding Hidden layer can be configured and weights adjusted by corresponding connectors of neurons. This readjustment or configuration can also be carried out for the subsequent hidden layer.
  • FIG. 1 In detail, FIG. 1
  • 3b shows how from the dimension-reduced processing vector, which was dimension-reduced for the first hidden layer VS1 by means of the first data transformation, by means of a second data transformation, for example a data transformation AT, the original processing vector Tl, ie the processing vector, still exists is not sheet for the first hidden layer VS1 dimensionsredu ⁇ reconstructed. Subsequently, an error ldl between the original processing vector and the reconstructed processing vector is determined. On the basis of the error, for example, the relevant hidden
  • Layer ie the first hidden layer VS1, or the subsequent hidden layer, ie the second hidden layer VS2, can be configured more precisely and the deep neural network can be better trained.
  • the accuracy with which the classification output is solved can be improved. In other words, so that in particular ⁇ sondere the error of the output vector is as far as possible mini ⁇ mized.
  • This error finding and improving the configuration of the hidden layers is then applied analogously to the other hidden layers.
  • the method can be applied to all hidden layers or, for example, applied to only a part of the hidden layers.
  • a second data transformation such as the data transformation BT
  • FIG. 4 shows a configuration device of a further embodiment of the invention.
  • FIG. 4 shows a configuration device for the computer-aided configuration of a deep neural network on the basis of a training system.
  • the configuration device comprises a first provisioning module 410, a second provisioning module 420 and a first training module 430 communicatively connected to a first bus 405.
  • the configuration device may additionally comprise a further component or a plurality of further components, such as a processor, a memory unit, an input device, in particular a computer keyboard or a computer mouse, or a monitor.
  • the corresponding component (s) may, for example, be communicatively connected to the other modules of the configuration device via the first bus 405.
  • the first provisioning module 410 is configured to provide training data having predetermined first input vectors and predetermined first output vectors for the training system.
  • the first provision module 410 can be implemented for example with ⁇ means of the processor, the memory unit and a first program component, which provide for example, by executing program instructions, the training data.
  • the second provisioning module 420 is set up to provide the deep neural network, the deep neuron network nale network is a feed-forward network.
  • the feedforward network includes an input layer for inputting the first input ⁇ vectors and a plurality of successive hidden layers for modeling the training system.
  • the second provision module 420 can be implemented for example with ⁇ means of the processor, the memory unit and a second program component, which provide for example, by executing program instructions the deep neural network.
  • the first training module 430 is adapted for training the deep neural network using the training data, where ⁇ layer at the first input vectors respectively via the input is transferred to one of the hidden layers as the first proces ⁇ tung vectors, and transmit the first processing vectors in each case between the hidden layers become. Additionally, the first training module 430 is to be rich ⁇ tet perform a respective first data transformation of the transmitted first processing vectors for each of a hidden layer, and a dimensional reduction of the first processing vectors is carried out at the respective first data transformation for each of a respective one hidden layer.
  • the first training module 430 is to be rich ⁇ tet, to configure the hidden layers on the basis of th first dimensionsreduzier- processing vectors and the respective corresponding first output vectors.
  • the first training module 430 can be implemented, for example, by means of the processor and a third program component which, for example, train the deep neural network by executing program instructions.
  • Fig. 5 shows an analysis device of another embodiment of the invention.
  • FIG. 5 shows an analysis device for computer-aided analysis of at least one second input vector of a target system.
  • the analysis device comprises a third provisioning module 510, a fourth READY ⁇ averaging module 520, a first evaluation module 530 and a fifth deployment module 540, the medium-via a second bus 505 are communicatively connected to each other.
  • the analysis device can, for example, in addition to grasp ⁇ such as a processor, a uniform Speicherein-, an input device, in particular a computer keyboard or a computer mouse, a monitor or a further component or more further components.
  • the corresponding component (s) may be communicatively coupled to the other modules of the analyzer via the second bus 505.
  • the third provisioning module 510 is configured to provide the second input vector to the target system.
  • the third provisioning module 510 can be implemented, for example, by means of the processor, the memory unit and a fourth program component, which provide the second input vector, for example by executing program instructions.
  • the fourth provisioning module 520 is adapted for providing egg ⁇ nes deep trained neural network, wherein the deep neural network is a feedforward network.
  • the feed-forward network includes an input layer for inputting the second input vector for the target system, a plurality of consecutive hidden layers modeling the target system, and an output layer for outputting a second output vector for the target system.
  • the fourth provisioning module 520 may be implemented for example with ⁇ means of the processor, the memory unit and a fifth program component, which provide for example, by executing program instructions, the trained neural network deep.
  • the first evaluation module 530 is set up to evaluate the second input vector, wherein the second input vector in each case via the input layer to one of the hidden
  • Layers is transmitted as a second processing vector and the second processing vector is transferred between the hidden layers, respectively.
  • the first evaluation module 530 is set up so that a respective first data transformation of the transmitted second processing vector is performed for each hidden layer and that in the respective first data transformation a dimension reduction of the second processing vector takes place for a particular hidden layer.
  • the first evaluation module 530 is configured such that the second output vector is determined using a dimensionsredu ⁇ ed second processing vector.
  • the first evaluation module 530 may be, for example, by means of the processor and a sixth program component implemen ⁇ advantage that analyze for example, by executing program instructions the second input vector by means of the deep trainier- th neural network.
  • the fifth provisioning module 540 is configured to provide the second output vector.
  • the fifth deployment module 540 may be implemented for example with ⁇ means of the processor, the memory unit and a fifth program component, for example, provide the second output vector by executing program instructions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

The invention relates to a method for the computer-aided analysis of at least one second input vector of a target system. The method comprises a step for providing (210) the second input vector for the target system. The method comprises a step for providing (220) a trained deep neural network, wherein the deep neural network is a feedforward network that comprises an input layer for inputting the second input vector for the target system, a plurality of consecutive hidden layers, which model the target system, and an output layer for outputting a second output vector for the target system. The method comprises a step for evaluating (230) the second input vector, wherein the second input vector is transmitted by means of the input layer to one of the hidden layers as a second processing vector, wherein the second processing vector is transmitted between the hidden layers, wherein a first data transformation of the transmitted second processing vector is performed for each hidden layer in question, wherein, in each first data transformation, a dimension reduction of the second processing vector is performed for the hidden layer in question, wherein the second output vector is determined on the basis of a dimension-reduced second processing vector. The method comprises a step for providing (240) the second output vector.

Description

Beschreibung description
Verfahren und Vorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems Method and device for computer-aided analysis of at least one second input vector of a target system
Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems. In einer Vielzahl von Anwendungsgebieten ist es wünschenswert einen Eingabevektor eines Zielsystems rechnergestützt zu ana¬ lysieren, um hierdurch bestimmte Eigenschaften des Zielsystems zu bestimmen. Zum Beispiel ist es im medizinischen Bereich oft notwendig, eine Aussage über (biologisches) Gewebe treffen zu können. Insbesondere ist es bei der Operation bös¬ artiger Tumore von entscheidender Wichtigkeit, tatsächlich alle befallenen Zellen aus dem betroffenen Bereich zu entfernen, um das Streuen bzw. die erneute Entstehung des Tumors zu verhindern. Dabei ist beispielsweise das Zielsystem das Gewe- be und der Eingabevektor umfasst erfasste Informationen über das Gewebe. Da jedoch eine Analyse oder eine Auswertung eines solchen Eingabevektors schwierig und kompliziert ist, ist es wünschenswert anhand des Eingabevektors Eigenschaften des Zielsystems, beispielsweise ob es sich um Tumorgewebe handelt oder nicht, möglichst einfach zu bestimmen. The invention relates to a method and a device for computer-aided analysis of at least one second input vector of a target system. In a variety of applications, it is desirable an input vector of a target system to a computer-aided ana ¬ lyse, thereby to determine certain properties of the target system. For example, in the medical field it is often necessary to be able to make a statement about (biological) tissue. In particular, in the operation wicked ¬-like tumors of crucial importance to actually remove all infected cells from the affected area in order to prevent the scattering and the re-emergence of the tumor. In this case, for example, the target system is the tissue and the input vector comprises acquired information about the tissue. However, since analysis or evaluation of such an input vector is difficult and complicated, it is desirable to determine as simply as possible the properties of the target system, such as tumor tissue, from the input vector.
Eine Aufgabe der vorliegenden Erfindung ist es, ein Verfahren und eine Vorrichtung bereitzustellen, die es erlauben, einen Eingabevektor eines Zielsystems möglichst einfach zu model- lieren. An object of the present invention is to provide a method and a device which make it possible to model an input vector of a target system as simply as possible.
Die Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Merkmale gelöst. In den Unteransprüchen sind vorteilhafte Weiterbildungen der Erfindung dargestellt. The object is solved by the features specified in the independent claims. In the dependent claims advantageous developments of the invention are shown.
Gemäß einem ersten Aspekt betrifft die Erfindung ein Verfahren zum rechnergestützten Konfigurieren eines tiefen neurona- len Netzes anhand eines Trainingssystems mit folgenden Ver¬ fahrensschritten : According to a first aspect, the invention relates to a method for computer-aided configuration of a deep neuron len Network on the basis of a training system with the following Ver ¬ method steps:
Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem;  Providing training data with predetermined first input vectors and predetermined first output vectors for the training system;
Bereitstellen des tiefen neuronalen Netzes, wobei  Providing the deep neural network, wherein
das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches  the deep neural network is a feed-forward network which
eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,  comprises an input layer for inputting the first input vectors,
eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems umfasst;  a plurality of consecutive hidden layers for modeling the training system;
Trainieren des tiefen neuronalen Netzes anhand der Trai- ningsdaten, wobei  Train the deep neural network based on the training data, whereby
die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen ersten Verarbeitungsvektoren durchgeführt werden, bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,  the first input vectors are each transmitted via the input layer to one of the hidden layers as first processing vectors, the first processing vectors are each transmitted between the hidden layers, each for a hidden layer a respective first data transformation of the transmitted first processing vectors are performed, in the respective first data transformation a dimension reduction of the first processing vectors takes place for a respective hidden layer,
die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der je- weiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.  the hidden layers are configured on the basis of the dimensionally reduced first processing vectors and the respective associated first output vectors.
Sofern es in der nachfolgenden Beschreibung nicht anders angegeben ist, beziehen sich die Begriffe "durchführen", "berechnen", "rechnergestützt", "rechnen", "feststellen", "gene rieren", "konfigurieren", "rekonstruieren" und dergleichen, vorzugsweise auf Handlungen und/oder Prozesse und/oder Verar beitungsschritte, die Daten verändern und/oder erzeugen und/oder die Daten in andere Daten überführen, wobei die Daten insbesondere als physikalische Größen dargestellt werden oder vorliegen können, beispielsweise als elektrische Impul¬ se. Insbesondere sollte der Ausdruck "Computer" möglichst breit ausgelegt werden, um insbesondere alle elektronischen Geräte mit Datenverarbeitungseigenschaften abzudecken. Computer können somit beispielsweise Personal Computer, Server, Handheld-Computer-Systeme, Pocket-PC-Geräte, Mobilfunkgeräte und andere Kommunikationsgeräte, die rechnergestützt Daten verarbeiten können, Prozessoren und andere elektronische Geräte zur Datenverarbeitung sein. Unless otherwise indicated in the following description, the terms "perform", "compute", "computationally", "compute", "determine", "generate", "configure", "reconstruct" and the like, preferably to actions and / or processes and / or processing steps that alter and / or generate data and / or transfer the data to other data, the data is displayed in particular as physical quantities or may be, for example, as electrical Impul ¬ se. In particular, should the term "computer" can be construed as broadly as possible to cover in particular all electronic devices with data processing properties , Computers can thus be, for example, personal computers, servers, handheld computer systems, pocket PC devices, mobile devices and other communication devices that can handle computer-aided data, processors and other electronic data processing equipment.
Unter „rechnergestützt" kann im Zusammenhang mit der Erfindung beispielsweise eine Implementierung des Verfahrens ver- standen werden, bei dem insbesondere ein Prozessor mindestens einen Verfahrensschritt des Verfahrens ausführt. In the context of the invention, "computer-aided" can be understood to mean, for example, an implementation of the method in which, in particular, a processor carries out at least one method step of the method.
Unter einem Prozessor kann im Zusammenhang mit der Erfindung beispielsweise eine Maschine oder eine elektronische Schal- tung verstanden werden. Bei einem Prozessor kann es sich insbesondere um einen Hauptprozessor (engl. Central Processing Unit, CPU) , einen Mikroprozessor oder einen Mikrokontroller, beispielsweise eine anwendungsspezifische integrierte Schal¬ tung oder einen digitaler Signalprozessor, möglicherweise in Kombination mit einer Speichereinheit zum Speichern von Programmbefehlen, etc. handeln. Bei einem Prozessor kann es sich beispielsweise auch um einen IC (integrierter Schaltkreis, engl. Integrated Circuit), insbesondere einen FPGA (engl. Field Programmable Gate Array) oder einen ASIC (anwendungs- spezifische integrierte Schaltung, engl. Application-Specific Integrated Circuit) , oder einen DSP (Digitaler Signalprozes¬ sor, engl. Digital Signal Processor) handeln. Auch kann unter einem Prozessor ein virtualisierter Prozessor oder eine Soft- CPU verstanden werden. Es kann sich beispielsweise auch um einen programmierbaren Prozessor handeln, der mit Konfigurationsschritten zur Ausführung des genannten erfindungsgemäßen Verfahrens ausgerüstet wird oder mit Konfigurationsschritten derart konfiguriert ist, dass der programmierbare Prozessor die erfindungsgemäßen Merkmale des Verfahrens, der Komponente, des Sicherheitsmoduls, oder anderer Aspekte und Teilas¬ pekte der Erfindung implementiert. Unter einer „Speichereinheit" kann im Zusammenhang mit der Erfindung beispielsweise ein Speicher in Form von Arbeitsspeicher (engl. Random-Access Memory, RAM) oder eine Festplatte verstanden werden. Unter einem „Modul" kann im Zusammenhang mit der Erfindung beispielsweise ein Prozessor und/oder eine Speichereinheit zum Speichern von Programmbefehlen verstanden werden. Beispielsweise ist der Prozessor speziell dazu eingerichtet, die Programmbefehle derart auszuführen, damit der Prozessor Funk- tionen ausführt, um das erfindungsgemäße Verfahren oder einen Schritt des erfindungsgemäßen Verfahrens zu implementieren. In the context of the invention, a processor can be understood as meaning, for example, a machine or an electronic circuit. A processor may, in particular, be a main processor (Central Processing Unit, CPU), a microprocessor or a microcontroller, for example an application-specific integrated circuit or a digital signal processor, possibly in combination with a memory unit for storing program instructions, etc act. A processor may, for example, also be an integrated circuit (IC), in particular an FPGA (field programmable gate array) or an ASIC (application-specific integrated circuit). or a DSP (Digital Signalprozes ¬ sor, engl. Digital signal Processor) act. Also, a processor can be understood as a virtualized processor or a soft CPU. It can also be, for example, a programmable processor which is equipped with configuration steps for the execution of said method according to the invention or is configured with configuration steps such that the programmable processor the features of the method according to the invention, the component, the security module, or other aspects and Teilas ¬ pects of the invention implemented. In the context of the invention, a "memory unit" can be understood as meaning, for example, a memory in the form of random access memory (RAM) or a hard disk. or a storage unit for storing program instructions. By way of example, the processor is specially set up to execute the program instructions in such a way that the processor carries out functions in order to implement the method according to the invention or a step of the method according to the invention.
Unter einem „System", insbesondere einem Trainingssystem und/oder einem Zielsystem, kann im Zusammenhang mit der Er- findung beispielsweise ein technisches System, ein biologi¬ sches System oder ein chemisches System verstanden werden. Ein System kann somit insbesondere das Verhalten oder Eigenschaften von biologischen Geweben, Ölen oder Schmiermitteln beschreiben, die insbesondere von gemessenen Parametern (Ein- gabevektoren) des Systems mittels eines trainierten tiefen neuronalen Netzes berechenbar sind. Bei dem jeweiligen System kann es sich insbesondere um ein komplexes System handeln, wobei eine Analyse von gemessenen Eigenschaften, insbesondere in Form von Eingabevektoren, des komplexen Systems sehr schwer durchzuführen ist. Insbesondere kann es sich bei dem System um ein weiteres System handeln, dessen Verhalten anhand eines Trainierens des tiefen neuronalen Netzes erlernbar ist, sodass eine Aussage über das System anhand von Eingabe¬ vektoren (z. B. gemessene Spektren) getroffen werden kann. Insbesondere ist das Verhalten des Systems hinsinsichtlich der ersten Ausgabevektoren in Abhängigkeit von den ersten Eingabevektoren modellierbar. Unter einer „Echtzeit" kann im Zusammenhang mit der Erfindung beispielsweise ein Durchführen einer Analyse während einer Operation eines Patienten verstanden werden, wobei das Analysieren von (zweiten) Eingabevektoren vorzugsweise unmittelbar nach dem Erfassen dieser Eingabevektoren erfolgt und wobei das Analysieren vorzugsweise keine oder nur in minimale Ver¬ längerung der Operationsdauer mit sich bringt. Insbesondere kann unter „Echtzeit" eine Analyse und deren Dauer verstanden werden, die vorzugsweise zuverlässig innerhalb einer vorbe- stimmten Zeitspanne, zum Beispiel während einer Operation oder dem Betrieb eines technischen Systems, Ergebnisse lie¬ fern können. A "System", and in particular a training system and / or a target system, a technical system, a biological ¬ ULTRASONIC system or a chemical system invention in connection with the ER, for example, are understood. A system can thus, in particular the behavior or properties of describe biological tissues, oils or lubricants that are, in particular, calculable from measured parameters (input vectors) of the system by means of a trained deep neural network The system in question may in particular be a complex system, wherein an analysis of measured properties, is very difficult to carry out especially in the form of input vectors, the complex system. in particular, it may be in the system to another system whose behavior is learned by way of training the deep neural network, so that a statement of the system based on input ¬ vectors (eg measured spectra) can be taken. In particular, the behavior of the system with respect to the first output vectors is modelable in dependence on the first input vectors. In the context of the invention, a "real-time" can be understood, for example, as performing an analysis during a patient's operation, wherein the analysis of (second) input vectors preferably takes place immediately after the detection of these input vectors, and wherein the analysis is preferably not or only minimally brings Ver ¬ prolongation of the duration of the operation with them. in particular, an analysis and their duration may be "real time" means that voted preferably reliably within a reserved time, for example during an operation or operation of a technical system, results may lie ¬ remote ,
Unter einem „Eingabevektor" können im Zusammenhang mit der Erfindung beispielsweise gemessene Größen des Systems ver¬ standen werden. Insbesondere werden Eingabevektoren des Trainingssystems, die zum Trainieren benutzt werden, als erste Eingabevektoren bezeichnet. Insbesondere werden zu analysie¬ rende Eingabevektoren, beispielsweise gemessene Eigenschaften des Zielsystems, als zweite Eingabevektoren bezeichnet. By an "input vector" can be ver ¬ were related to the invention, for example, measured properties of the system. In particular, input vectors of the training system used for training, referred to as first input vectors. More particularly, to analyzed ¬ Rende input vectors, for example, measured properties of the Target system, referred to as second input vectors.
Unter „Klassifikation" kann im Zusammenhang mit der Erfindung beispielsweise ein Analysieren von Eingabevektoren, insbesondere der zweiten Eingabevektoren, hinsichtlich vorgegebener gesuchter Eigenschaften verstanden werden. Insbesondere können unter einer Klassifikationsaufgabe die gesuchten Eigenschaften der Eingabevektoren bzw. des Zielsystems, beispielsweise „handelt es sich um gesundes Gewebe oder um Tumorgewe¬ be", verstanden werden. Insbesondere können unter einem Klas- sifikationsergebnis die zweiten Ausgabevektoren verstanden werden, die sich bei einer Analyse der zweiten Eingabevekto¬ ren mittels des trainierten tiefen neuronalen Netzes ergeben. In the context of the invention, "classification" may, for example, be understood to mean an analysis of input vectors, in particular of the second input vectors, with respect to predetermined sought-after properties tissue or tumor tissue ¬ be "understood. In particular, a classification result can be understood to mean the second output vectors which result in an analysis of the second input vectors by means of the trained deep neural network.
Unter einem „Ausgabevektor" kann im Zusammenhang mit der Er- findung beispielsweise ein Ergebnis einer Analyse des Einga¬ bevektors verstanden werden. Ein Ausgabevektor umfasst insbesondere mindestens ein Analyseergebnis oder eine gesuchte Ei¬ genschaft, beispielsweise ob es sich um Tumorgewebe handelt oder um gesundes Gewebe, des ( Ziel- ) Systems und ein jeweili¬ ger Eingabevektor umfasst insbesondere mindestens eine Ein¬ gangsgröße, die die gesuchte Eigenschaft oder das Analyseer¬ gebnis beeinflussen. Insbesondere werden Ausgabevektoren des Trainingssystems, die zum Trainieren benutzt werden, als ers¬ te Ausgabevektoren bezeichnet. Mit anderen Worten ist das erfindungsgemäße Verfahren insbesondere dazu geeignet, um einen Gewebetyp, beispielsweise Tumorgewebe oder gesundes Gewebe, oder eine Erkrankungswahrscheinlichkeit festzustellen und insbesondere in Form eines (zweiten) Ausgabevektors bereitzu¬ stellen. Insbesondere werden Ausgabevektoren, die insbesondere ein Analyseergebnis des Zielsystems oder von zweiten Ein¬ gabevektoren umfassen als zweite Ausgabevektoren bezeichnet. Unter einer „ersten Datentransformation" kann im Zusammenhang mit der Erfindung jeweils eine Datentransformation zur Dimensionsreduktion eines jeweiligen Verarbeitungsvektors für je¬ weils eine versteckte Schicht des tiefen neuronalen Netzes verstanden werden. Mit anderen Worten bedeutet dies bei- spielsweise, dass bei vier versteckten Schichten, insbesonde¬ re für jede der vier Schichten jeweils eine eigene erste Da¬ tentransformation für die jeweiligen Verarbeitungsvektoren der jeweiligen Schichten durchgeführt wird. Hierdurch wird insbesondere schrittweise ein mehrfach dimensionsreduzierter Verarbeitungsvektor erzeugt. By an "output vector" can-making in relation to the ER, for example, a result of analysis of the entranc ¬ bevektors be understood in particular an output vector comprises at least one analysis result or a requested egg ¬ genschaft, such as whether it is tumor tissue. or healthy tissue of the (target) system and a jeweili ¬ ger input vector comprises in particular at least one A ¬ output variable which will affect the desired property or the Analyseer ¬ result. In particular, output vectors of the training system, which are used for training, called ers ¬ te output vectors. In other words, the inventive method is particularly suited to determine a tissue type, for example, tumor tissue or healthy tissue, or a probability of disease and especially in the form of a (second) output vector set bereitzu ¬. In particular output vectors comprising in particular an analysis result of the target system, or of a second ¬ transfer vectors are referred to as second output vectors. By a "first data transformation" may each have a data transformation for the dimensional reduction of a respective processing vector for each ¬ weils a hidden layer of deep neural network to be understood in conjunction with the invention. In other words, this means examples of play, that in four hidden layers, insbesonde ¬ re for each of the four layers each have their own first Since ¬ tentransformation is performed for the respective processing vectors of the respective layers. This will in particular gradually generates a multi-dimensional reduced processing vector.
Unter einer „zweiten Datentransformation" kann im Zusammenhang mit der Erfindung jeweils eine Datentransformation zur Datenrekonstruktion für den jeweiligen dimensionsreduzierten Verarbeitungsvektor verstanden werden, der für jeweils eine betreffende versteckte Schicht des tiefen neuronalen Netzes berechnet wurde. Mit anderen Worten bedeutet dies beispiels¬ weise, dass bei vier versteckten Schichten, insbesondere für jede der vier Schichten eine eigene zweite Datentransformati- on zur Datenrekonstruktion aus dem dimensionsreduzierten Verarbeitungsvektor, der für die betreffende verstecke Schicht berechnet wurde, durchgeführt wird. Insbesondere ergibt die jeweilige zweite Datentransformation für den jeweiligen di- mensionsreduzierten Verarbeitungsvektor der jeweiligen versteckten Schicht, jeweils einen rekonstruierten Verarbeitungsvektor . Unter einem „Trainingssystem" kann im Zusammenhang mit der Erfindung beispielsweise ein oder mehrere Trainingssysteme verstanden werden, die insbesondere ein ähnliches oder identisches Systemverhalten aufweisen. Von dem Trainingssystem sind insbesondere erste Eingabevektoren und zugehörige erste Ausgabevektoren bekannt, wobei die ersten Ausgabevektoren bereits durchgeführte Analyseergebnisse für die ersten Eingabe¬ vektoren umfassen. Beispielsweise werden für biologisches Ge¬ webe optische Spektren als erste Eingabevektoren verwendet und ein Analyseergebnis (erste Ausgabevektoren) , ob es sich beispielsweise um gesundes Gewebe oder um Tumorgewebe han¬ delt, in Form eines zytologischen/pathologischen Befund des Gewebes verwendet. Insbesondere wird beim Trainieren des tie¬ fen neuronalen Netzes das Trainingssystem bzw. dessen Verhalten hinsichtlich der ersten Eingabevektoren in Abhängigkeit von den ersten Ausgabevektoren modelliert. Insbesondere ist es nicht erforderlich, dass beispielsweise der erste Ausgabe¬ vektor ein Analyseergebnis der ersten Eingabevektoren derselben Modalität umfasst. Dies bedeutet beispielsweise, dass insbesondere NIR-Spektren als erste Eingabevektoren verwendet werden können, aber als erste Ausgabevektoren für das Trainieren nicht eine direkte Analyse der NIR-Spektren vorliegen muss. Stattdessen können insbesondere zu den jeweiligen ersten Eingabevektoren (also beispielsweise die NIR-Spektren) , jeweils insbesondere erste Ausgabevektoren in Form von Gewe- beanalysen, beispielsweise pathologische/zytologische Analy¬ sen von Biopsien, des Gewebes, von dem die NIR-Spektren aufgezeichnet wurden. A "second data transformation" may be understood in connection with the invention, one data transformation to data reconstruction for each dimension-reduced processing vector, which was calculated for each a respective hidden layer of deep neural network. In other words, this means as example ¬ that when four hidden layers, in particular for each of the four layers, a separate second data transformation for data reconstruction is performed from the dimensionally reduced processing vector calculated for the relevant hidden layer. mensionsreduzierten processing vector of the respective hidden layer, each a reconstructed processing vector. In the context of the invention, a "training system" can be understood as meaning, for example, one or more training systems which have a similar or identical system behavior first input ¬ vectors include. for example be used for biological Ge ¬ tissue optical spectra as a first input vectors and an analysis result (first output vectors) whether it han ¬ punched, for example, healthy tissue or near the tumor tissue, in the form of a cytological / pathology of the tissue used. in particular, the training system and whose behavior is modeled with respect to the first input vectors in response to the first output vectors in training the tie ¬ fen neural network. in particular, it is not necessary for example, that the first output ¬ vector comprises a first analysis result of the input vectors of the same modality. This means, for example, that in particular NIR spectra can be used as the first input vectors, but the first output vectors for training need not be a direct analysis of the NIR spectra. Instead (for example, the NIR spectra so), in each case in particular first output vectors in the form of Gewe- example, pathological / cytological Analy ¬ sen from biopsies of the tissue from which the NIR spectra were recorded can in particular to the respective first input vectors beanalysen.
Unter einem „Zielsystem" kann im Zusammenhang mit der Erfin- dung beispielsweise ein zu analysierendes System verstanden werden. Bei einem Zielsystem kann es sich beispielsweise um biologisches Gewebe handeln, bei dem festgestellt werden soll, ob es sich um Tumorgewebe oder gesundes Gewebe handelt. Insbesondere werden Eingabevektoren, die für das Zielsystem analysiert werden sollen, als zweite Eingabevektoren bezeichnet. Insbesondere kann ein zweiter Eingabevektor des Zielsys¬ tems auch als Blinddatensatz bezeichnet werden. Insbesondere können das Trainingssystem und das Zielsystem unterschiedliche Systeme oder identische Systeme sein. In the context of the invention, a "target system" may, for example, be understood to mean a system to be analyzed, for example, a target system may be biological tissue to determine whether it is tumor tissue or healthy tissue. In particular, input vectors to be analyzed for the target system are referred to as second input vectors. In particular, a second input vector of Zielsys ¬ tems can also be called a dummy record. In particular, the training system and the target system may be different systems or identical systems.
Unter einem „Modell" kann im Zusammenhang mit der Erfindung beispielsweise eine Datenstruktur insbesondere zum Modellie- ren eines Systems verstanden werden. In the context of the invention, a "model" may, for example, be understood as a data structure, in particular for modeling a system.
Unter einem „Bereitstellen" kann im Zusammenhang mit der Erfindung beispielsweise ein Initialisieren und/oder Berechnen und/oder Laden und/oder Speichern, insbesondere auf/durch ei- nen Datenspeicher, verstanden werden. Insbesondere werden Daten und/oder Datenstrukturen bereitgestellt, wie beispiels¬ weise Trainingsdaten, ein trainiertes/untrainiertes tiefes neuronales Netz oder ein Ausgabevektor. Unter einem „Feed-Forward-Netz" kann im Zusammenhang mit der Erfindung beispielsweise ein neuronales Netz mit mehreren miteinander verbundenen Schichten verstanden werden. Die verbundenen Schichten umfassen beispielsweise eine Eingabe¬ schicht zur Eingabe von Eingabevektoren, mindestens eine ver- steckte Schicht zum Modellieren eines Systems (z. B. Trai¬ ningssystem) oder zum Analysieren von Eingabevektoren eines Systems (z. B. Zielsystem) und eine Ausgabeschicht zur Ausga¬ be eines Ergebnisses des Analysierens. Insbesondere umfassen die einzelnen Schichten jeweils eine oder mehrere Neuronen, die beispielsweise bei einem Trainieren des tiefen neuronalen Netzes konfiguriert werden. In the context of the invention, "provisioning" may be understood as meaning, for example, initialization and / or calculation and / or loading and / or storage, in particular on / by a data memory In the context of the invention, a "feed-forward network" can be understood, for example, to mean a neural network having a plurality of layers connected to one another. The bonded layers, for example, include an input ¬ layer for inputting input vectors, at least a comparable stuck layer for modeling of a system (eg. B. Trai ¬ beginnings system) or for analyzing input vectors of a system (eg., Target system), and an output layer for Ausga ¬ be a result of the analyzing. In particular, the individual layers each comprise one or more neurons, which are configured, for example, when training the deep neural network.
Unter einem „tiefen neuronalen Netz" kann im Zusammenhang mit der Erfindung beispielsweise ein neuronales Netz oder ein neuronales Netzwerk verstanden werden, das im Gegensatz zu konventionellen neuronalen Netzen mehr als eine versteckte Schicht umfasst. Insbesondere findet die Informationsverar¬ beitung (insbesondere die Analyse eines Eingangsvektors) vor- zugsweise in vielen aufeinanderfolgenden versteckten Schichten statt. Insbesondere findet eine Übertragung von Verarbei¬ tungsvektoren zwischen den versteckten Schichten vorzugsweise nur mit der direkt nachfolgenden versteckten Schicht statt. Beispielsweise kann die Analyse des Eingangsvektors (insbe¬ sondere die Informationsverarbeitung) kaskadiert oder verkettet in den versteckten Schichten durchgeführt werden. Insbesondere wird damit eine kaskadierte Verarbeitung von Eingabe¬ vektoren oder Verarbeitungsvektoren ermöglicht. Somit kann ein tiefes neuronales Netzwerk beispielsweise eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfassen, die insbesondere eine kaskadierte Informationsverarbeitung durchführen. Hierdurch lässt sich insbesondere eine hierarchische Informationsverarbeitung in den versteckten Schichten reali- sieren. Insbesondere können beispielsweise Analyseergebnisse (z. B. eine Merkmalsextraktion) einer jeweiligen Schicht direkt der Ausgabeschicht übermittelt werden oder es wird bei¬ spielsweise ein spezifisches Analyseergebnis einer bestimmten Schicht, die insbesondere ein vorgegebenes Kriterium (z. B. Erreichen einer bestimmten Dimension des Verarbeitungsvektors) , der Ausgabeschicht übermittelt. A "deep neural network", for example, a neural network or a neural network can in connection with the invention will be understood that in contrast to conventional neural networks comprising more than one hidden layer. In particular, the Informationsverar ¬ processing takes place (in particular the analysis of an input vector ) in front- preferably in many consecutive hidden layers. In particular, a transmission of proces ¬ tung vectors between the hidden layers, preferably only to the directly subsequent hidden layer takes place. For example, the analysis of the input vector can (in particular ¬ sondere the information processing) are carried out in cascade or chained in the hidden layers. In particular, thus a cascaded processing input ¬ vectors or vectors processing is made possible. Thus, for example, a deep neural network may comprise a plurality of consecutive hidden layers, which in particular perform cascaded information processing. In particular, hierarchical information processing in the hidden layers can thereby be realized. In particular, for example, analysis results can be transmitted directly to the output layer (eg. As a feature extraction) of a respective layer, or it is at ¬ play, a specific analysis result of a particular layer, in particular, a predetermined criterion (for. Example, reaching a certain dimension of the processing vector) that transmits output layer.
Unter „kaskadiert" kann im Zusammenhang mit der Erfindung beispielsweise ein Hintereinanderschalten oder Verketten der versteckten Schichten verstanden werden. Insbesondere dient ein Ergebnis einer Informationsverarbeitung einer betreffenden versteckten Schicht als Eingabevektor oder Verarbeitungsvektor für die der betreffenden Schicht der nachfolgenden versteckten Schicht. By "cascaded" in the context of the invention, for example, a concatenation or concatenation of the hidden layers can be understood, In particular, a result of information processing of a respective hidden layer serves as an input vector or processing vector for the respective layer of the subsequent hidden layer.
Unter einem „kaskadierten Übertragen" oder einem Under a "cascaded transfer" or a
„kaskadierten Verarbeiten" kann im Zusammenhang mit der Erfindung beispielsweise ein verkettetes Verarbeiten von Einga¬ bevektoren oder Verarbeitungsvektoren verstanden werden. "Cascaded processing" may be understood in connection with the invention, for example a concatenated processing entranc ¬ bevektoren or processing vectors.
Hierzu wird beispielsweise in einer ersten versteckten For example, this is hidden in a first
Schicht ein Verarbeitungsvektor bearbeitet und insbesondere eine Dimensionsreduktion mit der entsprechenden ersten Datentransformation der ersten versteckten Schicht durchgeführt. Insbesondere kann die jeweilige erste Datentransformation entweder ein integraler Bestandteil der jeweiligen betreffenden versteckten Schicht (beispielsweise die erste versteckte Schicht) sein oder ein Vorverarbeitungsschritt für die jewei- lige betreffende versteckte Schicht sein. Insbesondere wird an die nachfolgende versteckte Schicht der jeweiligen betref¬ fenden versteckten Schicht der dimensionsreduzierte Eingabe¬ vektor oder der dimensionsreduzierte Verarbeitungsvektor übertragen. Hierdurch wird insbesondere bei der Analyse oder Informationsverarbeitung in den versteckten Schichten Layer processed processing vector and in particular a dimension reduction performed with the corresponding first data transformation of the first hidden layer. In particular, the respective first data transformation can either be an integral part of the respective hidden layer concerned (for example the first hidden layer) or can be a preprocessing step for the particular hidden layer concerned. In particular, the respective Subject Author ¬ fenden hidden layer of dimensionally reduced input vector ¬ or dimensionally reduced processing vector is transmitted to the subsequent hidden layer. This will especially in the analysis or information processing in the hidden layers
schrittweise die Dimension des Eingabevektors oder des Verar¬ beitungsvektors reduziert, sodass sich insbesondere durch ein Verarbeiten/Analysieren des Verarbeitungsvektors durch die versteckten Schichten ein mehrfach dimensionsreduzierter Ver- arbeitungsvektor ergibt. Auch kann beispielsweise in der jeweiligen versteckten Schicht, jeweils eine Merkmalsextraktion für den jeweiligen dimensionsreduzierten Eingabevektor oder den dimensionsreduzierten Verarbeitungsvektor durchgeführt werden. Insbesondere kann die Merkmalsextraktion beim Trai- nieren des tiefen neuronalen Netzes oder dem Konfigurieren der versteckten Schichten hilfreich sein, um die versteckten Schichten anhand der ersten Ausgabevektoren zu konfigurieren. Hierzu können die ersten Ausgabevektoren für die jeweiligen versteckten Schichten bekannte Merkmale umfassen. Die ver- steckten Schichten können beispielsweise anhand eines Ver¬ gleichs der bekannten Merkmale mit den extrahierten Merkmalen der jeweiligen Schicht durchgeführt werden. gradually reduces the dimension of the input vector or the proces ¬ beitungsvektors, so that a multi-dimensional reduced comparison results vector processing in particular by a processing / analyzing the vector by processing the hidden layers. Also, for example, in the respective hidden layer, a feature extraction for the respective dimension-reduced input vector or the dimension-reduced processing vector can be performed in each case. In particular, feature extraction may be helpful in configuring the deep neural network or configuring the hidden layers to configure the hidden layers based on the first output vectors. For this purpose, the first output vectors for the respective hidden layers can comprise known features. The comparable infected layers can be performed, for example, using a ¬ Ver equalization of the known characteristics of the extracted features of the respective layer.
Unter einem „Konfigurieren", insbesondere der versteckten Schichten, kann im Zusammenhang mit der Erfindung beispielsweise ein Gewichten und/oder Löschen und/oder Einfügen von Neuronen in den versteckten Schichten verstanden werden. Insbesondere können beim Konfigurieren auch Gewichte von entsprechenden Konnektoren der Neuronen angepasst werden. By "configuring", in particular the hidden layers, in the context of the invention, for example, a weighting and / or deleting and / or inserting of neurons in the hidden layers can be understood .. In particular, weights of corresponding connectors of the neurons can also be adapted during the configuration ,
Das Verfahren ist insbesondere dahingehend vorteilhaft, wenn ein Tumor in kritischem Gewebe (z. B. Gehirn) auftritt. Insbesondere, wenn durch das Entfernen gesunder Zellen bleibende Schäden für den Patienten entstehen können, (z.B. bei Gehirntumoren) ist die korrekte Klassifikation der Grenzbereiche zwischen gesunden und befallenen Zellen/Gewebe entscheidend. Beispielsweise liefern bildgebende diagnostische Verfahren, die im Vorfeld der Operation angewandt werden, für die Opera¬ tionsplanung einen wichtigen Beitrag, können jedoch insbesondere während der Operation nur noch begrenzt zur Darstellung und Identifikation des Tumors herangezogen werden. Mit Hilfe beispielsweise von Spektroskopie im Nah-Infrarot-Bereich (NIR) können zusätzlich Gewebeeigenschaften analysiert werden, die insbesondere während der Operation in Echtzeit die spektralen Eigenschaften des vorliegenden Gewebes wiedergeben und beispielsweise für die Unterscheidung der Tumorzellen vom umliegenden gesunden Gewebe herangezogen werden können. Um das tiefe neuronale Netzwerk insbesondere für diesen Anwen¬ dungsfall zu konfigurieren, können beispielsweise aufgezeichneten Spektren als erste Eingabevektoren verwendet werden und Gewebeschnitte, die angeben, ob es sich um Tumorgewebe han¬ delt, als erste Ausgabevektoren verwendet werden. Insbesonde- re kann das trainierte tiefe neuronale Netz für eine automa¬ tisierte Differenzierung der unterschiedlichen Zell/Gewebe- Typen genutzt werden und somit beispielsweise dem operieren¬ den Arzt eine zusätzliche Entscheidungshilfe bei der Abgren¬ zung zwischen Tumor- und nicht-Tumorzellen zur Verfügung stellen. The method is particularly advantageous in that a tumor occurs in critical tissue (eg, brain). In particular, if lasting by removing healthy cells Damage to the patient (for example in brain tumors), the correct classification of the border areas between healthy and affected cells / tissue is crucial. For example, provide diagnostic imaging procedures that are applied in advance of the operation for which Opera ¬ tion planning a significant contribution, but can only be used for limited representation and identification of the tumor in particular during the operation. With the help of, for example, near-infrared spectroscopy (NIR) tissue properties can additionally be analyzed which, in particular, reflect the spectral properties of the present tissue during the operation in real time and can be used, for example, to distinguish the tumor cells from the surrounding healthy tissue. To configure the deep neural network especially for this appli ¬ case of use, for example, recorded spectra can be used as the first input vectors and tissue sections that indicate whether han ¬ delt to tumor tissue, are used as the first output vectors. Insbesonde- re capable coached deep neural network for automatic ¬ tisierte differentiation of different cell / tissue types are used and thus, for example, provide the operating ¬ the doctor an additional decision support for the Abgren ¬ Zung between tumor and non-tumor cells available ,
Mit anderen Worten ist das erfindungsgemäße Verfahren dahingehend vorteilhaft, die Spektren von gesunden Zellen oder Gewebe und Tumorzellen/Tumorgewebe, die sich insbesondere nur durch komplexe, schwer identifizierbare Eigenschaften unterscheiden, zu analysieren. Insbesondere ist das erfindungsge¬ mäße Verfahren in der Lage vorzugsweise genau diese schwer identifizierbare Eigenschaften zu identifizieren und insbe¬ sondere für das Lösen der eigentlichen Klassifikationsaufgabe (Analyse, ob es sich um gesundes Gewebe oder Tumorgewebe han¬ delt) heranzuziehen. Insbesondere ist das erfindungsgemäße Verfahre in der Lage Messfehler in den aufgezeichneten Spektren oder ersten Eingabevektoren zu kompensieren. Insbesondere wird hierdurch eine langwierige Messfehlerkorrektur der Eingabevektoren vermie- den . In other words, the method according to the invention is advantageous in analyzing the spectra of healthy cells or tissue and tumor cells / tumor tissue, which differ in particular only by complex, difficult-to-identify properties. In particular, the erfindungsge ¬ Permitted method is able to identify these preferably exactly difficult to identify properties and in particular ¬ sondere for solving the actual classification task (analysis, whether they are healthy tissue or tumor tissue han ¬ delt) to be used. In particular, the method according to the invention is able to compensate for measurement errors in the recorded spectra or first input vectors. In particular, this avoids lengthy measurement error correction of the input vectors.
Insbesondere ist das erfindungsgemäße Verfahren in der Lage, einerseits beispielsweise die aufgezeichneten Rohdaten der NIR Spektroskopie (Eingabevektoren) ohne weitere Vorverarbei- tungsschritte, beispielsweise Messfehlerkorrekturen, zu ver¬ arbeiten und andererseits beispielsweise die komplexe Klassi¬ fikationsaufgabe (Unterscheidung gesundes Gewebe oder Tumor¬ gewebe) mit sehr guter Performanz, beispielsweise in mög¬ lichst kurzer Zeit bis hin zur Echtzeit, zu lösen. Insbeson- dere kann mit dem erfindungsgemäßen Verfahren das tiefe neuronale Netzwerk beispielsweise mit einem Testdatensatz trainiert werden, um vorzugsweise sehr gute Klassifikations¬ ergebnisse (Ausgabevektor) auf einem zweiten Eingabevektor zu erzielen. Insbesondere lässt sich eine Anwendung des trai- nierten tiefen neuronalen Netzes als reine Input-Output Rela¬ tion auf zweiten Eingabevektoren durch eine Implementierung in geeigneter Software einfach realisieren. In particular, the process of the invention is able, on the one hand, for example, the recorded raw data from the NIR spectroscopy (input vectors) preparation steps without further preprocessing, for example, measurement error corrections work and ver ¬ other hand, for example, the complex classification ¬ fikationsaufgabe (distinction between healthy tissue or tumor ¬ tissue) to solve with very good performance, for example in mög ¬ lichst short time to real-time. In particular, the deep neural network can be trained, for example, with a test data set with the inventive method to obtain very good classification preferably ¬ results (output vector) on a second input vector. In particular, an application of the trained deep neural network as a pure input-output Rela ¬ tion on second input vectors by implementing an appropriate software can be easily implemented.
Das erfindungsgemäße Verfahren ist vorzugsweise nicht auf Ge- hirntumore und dergleichen festgelegt, sondern lässt sich insbesondere auf weitere Gewebearten wie z.B. Knochen erwei¬ tern. Auch können beispielsweise mit dem erfindungsgemäßen Verfahren auch Gesundheitsdaten analysiert werden, um beispielsweise anhand von genetischen Markern und/oder Medika- menteneinnahmen und/oder Vorerkrankungen und/oder Laborwerten eine Wahrscheinlichkeit für ein Eintreten einer bestimmten Erkrankung, beispielsweise Diabetes, zu ermitteln The inventive method is preferably not brain tumors on overall and fixed the like but can be expan ¬ tern particular more types of tissue such as bone. Also, for example, with the method according to the invention, health data can also be analyzed in order to determine a probability of an occurrence of a specific disease, for example diabetes, for example on the basis of genetic markers and / or medication income and / or previous illnesses and / or laboratory values
Auch ist das Verfahren vorzugsweise nicht auf medizinische Anwendungen beschränkt, sondern es können insbesondere auch spektrale Daten oder Eingabevektoren von Flüssigkeiten oder Gasen untersucht werden. Bei einer ersten Ausführungsform des Verfahrens sind die ers¬ ten Eingabevektoren gemessene Spektren des Trainingssystems, wobei die ersten Ausgabevektoren bereits durchgeführte Analy¬ seergebnisse für die Spektren sind. Also, the method is preferably not limited to medical applications, but in particular also spectral data or input vectors of liquids or gases can be examined. In a first embodiment of the method the ers ¬ th input vectors measured spectra of the training system, with the first output vectors are already carried out Analy ¬ seergebnisse for the spectra.
Bei einer weiteren Ausführungsform des Verfahrens umfassen die gemessenen Spektren, Spektren von Gewebe, und die durchgeführte Analyseergebnisse geben an, ob ein Spektrum gesundem Gewebe zuzuordnen ist oder Tumorgewebe zuzuordnen ist. In a further embodiment of the method, the measured spectra include spectra of tissue and the performed analysis results indicate whether a spectrum is to be assigned to healthy tissue or to tumor tissue.
Bei einer weiteren Ausführungsform des Verfahrens umfassen die gemessenen Spektren, Spektren von Ölen oder Schmiermitteln, und die durchgeführte Analyseergebnisse umfassen eine Qualität der Öle oder Schmiermittel. In another embodiment of the method, the measured spectra include spectra of oils or lubricants, and the analysis results performed include a quality of the oils or lubricants.
Bei einer weiteren Ausführungsform des Verfahrens wird für die dimensionsreduzierten ersten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ursprünglicher erster Verarbeitungsvektor für jeweils eine be- treffende versteckte Schicht mittels einer zweiten Daten¬ transformation rekonstruiert, und es wird ein Fehler zwischen dem rekonstruierten ursprünglichen ersten Verarbeitungsvektor und dem übertragenen ersten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt. In a further embodiment of the method for the dimension-reduced first processing vectors that result for the hidden layers, reconstructed in each case an original first processing vector for each of a loading apt hidden layer by means of a second data ¬ transformation, and there is an error between the reconstructed determined first original processing vector and the transmitted first processing vector for each respective hidden layer.
Das Verfahren ist insbesondere dahingehend vorteilhaft, um beispielsweise eine Aussage über die Qualität, insbesondere über einen zu erwartenden Fehler, von extrahierten Merkmalen eines dimensionsreduzierten ersten Verarbeitungsvektors einer versteckten Schicht, beispielsweise die betreffende versteck¬ te Schicht, treffen zu können. The method is particularly advantageous in order to make, for example, a statement about the quality, in particular an expected error of extracted features of a dimension-reduced first processing vector of a hidden layer, for example, the relevant hidden ¬ th layer.
Bei einer weiteren Ausführungsform des Verfahrens wird der ermittelte Fehler für das Konfigurieren der jeweiligen be- treffenden versteckten Schichten oder der jeweiligen nachfolgenden versteckten Schicht, welcher der dimensionsreduzierte erste Verarbeitungsvektor übermittelt wird, berücksichtigt. Das Verfahren ist insbesondere dahingehend vorteilhaft, um hierdurch eine Genauigkeit des Klassifikationsergebnisses zu verbessern. Insbesondere wird das Trainingssystem genauer modelliert und insbesondere können eine Qualität von Merkmalen, die beispielsweise durch die versteckte Schicht aus den Ver- arbeitungsvektor/en extrahiert werden, verbessert werden. Hierdurch können beispielsweise Fehler bei den extrahierten Merkmalen reduziert werden. Bei einer weiteren Ausführungsform des Verfahrens wird eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten ersten Eingabevektors bestimmt . Das Verfahren ist insbesondere dahingehend vorteilhaft, um die Anzahl der versteckten Schichten für eine bestimmte Klassifikationsaufgabe möglichst gering zu halten und damit ins¬ besondere unnötige Rechenschnitte zu vermeiden. Gemäß einem weiteren Aspekt betrifft die Erfindung ein Verfahren zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems mit folgenden Ver¬ fahrensschritten : In a further embodiment of the method, the determined error is taken into account for configuring the respective relevant hidden layers or the respective subsequent hidden layer to which the dimension-reduced first processing vector is transmitted. The method is particularly advantageous in order to thereby improve an accuracy of the classification result. In particular, the training system is modeled more accurately, and in particular, a quality of features extracted, for example, by the hidden layer from the processing vector (s) can be improved. In this way, for example, errors in the extracted features can be reduced. In a further embodiment of the method, a number of hidden layers is determined from a dimension to be achieved of the dimension-reduced first input vector. The method is particularly advantageous in order to keep the number of hidden layers for a particular classification task as low as possible and to avoid the unnecessary calculation ¬ special cuts. According to a further aspect, the invention relates to a method for computer-assisted analyzing at least one second input vector of a target system with the following Ver ¬ method steps:
Bereitstellen des zweiten Eingabevektors für das Ziel- System;  Providing the second input vector for the target system;
Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei  Providing a trained deep neural network, wherein
das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches  the deep neural network is a feed-forward network which
- eine Eingabeschicht zur Eingabe des zweiten an input layer for inputting the second
Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfasst, die das Zielsystem modellieren, und Input vector for the target system, comprising a plurality of consecutive hidden layers that model the target system, and
- eine Ausgabeschicht zur Ausgabe eines zweiten an output layer for outputting a second one
Ausgabevektors für das Zielsystem umfasst, Auswerten des zweiten Eingabevektors, wobei der zweite Eingabevektor jeweils über die Eingabe¬ schicht an eine der versteckten Schichten als zwei- ter Verarbeitungsvektor übertragen wird, der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird, Output vector for the target system comprises evaluating the second input vector, wherein the second input vector is transmitted in each case via the input ¬ layer to one of the hidden layers as a two-ter processing vector, the second vector processing each transmitted between the hidden layers,
jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,  in each case for a hidden layer a respective first data transformation of the transmitted second processing vector is carried out,
bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte  at the respective first data transformation, a dimension reduction of the second processing vector respectively for a respective hidden one
Schicht erfolgt,  Layer takes place,
der zweite Ausgabevektor anhand eines dimensionsre¬ duzierten zweiten Verarbeitungsvektors ermittelt wird; the second output vector is determined using a dimensionsre ¬ duced second processing vector;
Bereitstellen des zweiten Ausgabevektors.  Providing the second output vector.
Das Verfahren ist insbesondere dahingehend vorteilhaft, wenn ein Tumor in kritischem Gewebe (z. B. Gehirn) auftritt. Ins- besondere, wenn durch das Entfernen gesunder Zellen bleibende Schäden für den Patienten entstehen können (z. B. bei Gehirntumoren) , ist die korrekte Klassifikation der Grenzbereiche zwischen gesunden und befallenen Zellen/Gewebe entscheidend. Beispielsweise liefern bildgebende diagnostische Verfahren, die im Vorfeld der Operation angewandt werden, für die Opera¬ tionsplanung einen wichtigen Beitrag, können jedoch insbesondere während der Operation nur noch begrenzt zur Darstellung und Identifikation des Tumors herangezogen werden. Mit Hilfe beispielsweise von Spektroskopie im Nah-Infrarot-Bereich (NIR) können zusätzlich Gewebeeigenschaften analysiert werden, die insbesondere während der Operation in Echtzeit die spektralen Eigenschaften des vorliegenden Gewebes wiedergeben und beispielsweise für die Unterscheidung der Tumorzellen vom umliegenden gesunden Gewebe herangezogen werden können. The method is particularly advantageous in that a tumor occurs in critical tissue (eg, brain). In particular, if the removal of healthy cells can result in permanent damage to the patient (eg brain tumors), the correct classification of the border areas between healthy and affected cells / tissue is crucial. For example, provide diagnostic imaging procedures that are applied in advance of the operation for which Opera ¬ tion planning a significant contribution, but can only be used for limited representation and identification of the tumor in particular during the operation. With the help of, for example, near-infrared spectroscopy (NIR) tissue properties can additionally be analyzed which, in particular, reflect the spectral properties of the present tissue during the operation in real time and can be used, for example, to distinguish the tumor cells from the surrounding healthy tissue.
Insbesondere kann das trainierte tiefe neuronale Netz für ei¬ ne automatisierte Differenzierung der unterschiedlichen In particular, the trained neural network for deep ei ¬ ne automated differentiation of different
Zell/Gewebe-Typen genutzt werden und somit beispielsweise dem operierenden Arzt eine zusätzliche Entscheidungshilfe bei der Abgrenzung zwischen Tumor- und nicht-Tumorzellen zur Verfügung zu stellen. Mit anderen Worten ist das erfindungsgemäße Verfahren dahingehend vorteilhaft, die Spektren von gesunden Zellen oder Gewebe und Tumorzellen/Tumorgewebe, die sich insbesondere nur durch komplexe, schwer identifizierbare Eigenschaften unterscheiden, zu analysieren. Insbesondere ist das erfindungsge- mäße Verfahren in der Lage vorzugsweise genau diese schwer identifizierbare Eigenschaften zu identifizieren und insbe¬ sondere für das Lösen der eigentlichen Klassifikationsaufga¬ be, beispielsweise eine Analyse, ob es sich um gesundes Gewe¬ be oder Tumorgewebe handelt, heranzuziehen. Cell / tissue types are used and thus, for example, the operating physician to provide additional decision support in the demarcation between tumor and non-tumor cells available. In other words, the method according to the invention is advantageous in analyzing the spectra of healthy cells or tissue and tumor cells / tumor tissue, which differ in particular only by complex, difficult-to-identify properties. In particular, the erfindungsge- Permitted method is capable preferably precisely identify these difficult to identify properties and in particular ¬ sondere for solving the actual Klassifikationsaufga ¬ be, for example, an analysis of whether it is healthy tissue ¬ be or tumor tissue to be used.
Insbesondere ist das erfindungsgemäße Verfahren in der Lage Messfehler in den aufgezeichneten Spektren oder ersten Eingabevektoren zu kompensieren. Insbesondere wird hierdurch eine langwierige Messfehlerkorrektur der Eingabevektoren vermie- den. In particular, the inventive method is able to compensate for measurement errors in the recorded spectra or first input vectors. In particular, this avoids lengthy measurement error correction of the input vectors.
Insbesondere durchlaufen die zweiten Eingabevektoren oder die zweiten Verarbeitungsvektoren zur Analyse mehrere versteckte Schichten, wobei insbesondere für jede verstecke Schicht je- weils die Dimensionsreduktion der jeweiligen zweiten Eingabevektoren oder der jeweiligen zweiten Verarbeitungsvektoren durchgeführt wird. In den jeweiligen versteckten Schichten kann dann beispielsweise jeweils eine Analyse der zweiten Verarbeitungsvektoren durchgeführt werden. Die Dimension der zweiten Verarbeitungsvektoren wird somit beim Übermitteln zwischen den versteckten Schichten, insbesondere einem kaskadierten Übermitteln, schrittweise reduziert, bis vorzugsweise der zweite Verarbeitungsvektor eine vorgegebene re¬ duzierte Dimension erreicht und an die Ausgabeschicht als zweiter Ausgabevektor übertragen wird. In particular, the second input vectors or the second processing vectors undergo a plurality of hidden layers for analysis, wherein the dimension reduction of the respective second input vectors or of the respective second processing vectors is carried out in each case for each hidden layer. In the respective hidden layers, an analysis of the second processing vectors can then be carried out, for example. The dimension of the second processing vectors is thus gradually reduced in communicating between the hidden layers, especially a cascaded transfer, preferably up to the second processing vector is reached a predetermined re ¬-induced dimension and transmitted to the output layer as the second output vector.
Insbesondere ist das erfindungsgemäße Verfahren in der Lage, einerseits beispielsweise die aufgezeichneten Rohdaten der NIR Spektroskopie (Eingabevektoren) ohne weitere Vorverarbei¬ tungsschritte, beispielsweise Messfehlerkorrekturen, zu ver¬ arbeiten und andererseits beispielsweise die komplexe Klassi¬ fikationsaufgabe (Unterscheidung gesundes Gewebe oder Tumor- gewebe) mit sehr guter Performanz zu lösen. In particular, the method according to the invention is able, on the one hand, for example, the recorded raw data of the NIR spectroscopy (input vectors) without further Vorverarbei ¬ processing steps, for example, measurement error corrections to ver ¬ work and on the other hand, for example, the complex classification ¬ task (differentiation of healthy tissue or tumor tissue) to solve with very good performance.
Insbesondere lässt sich eine Anwendung des trainierten tiefen neuronalen Netzes als reine Input-Output Relation auf den zweiten Eingabevektoren durch eine Implementierung in geeig- neter Software einfach realisieren. In particular, an application of the trained deep neural network as a pure input-output relation on the second input vectors can be easily realized by an implementation in suitable software.
Das erfindungsgemäße Verfahren ist vorzugsweise nicht auf Ge- hirntumore und dergleichen festgelegt, sondern lässt sich insbesondere auf weitere Gewebearten wie z.B. Knochen erwei- tern. Auch können beispielsweise mit dem erfindungsgemäßen Verfahren auch Gesundheitsdaten analysiert werden, um beispielsweise anhand von genetischen Markern und/oder Medikamenteneinnahmen und/oder Vorerkrankungen und/oder Laborwerten eine Wahrscheinlichkeit für ein Eintreten einer bestimmten Erkrankung, beispielsweise Diabetes, zu ermitteln The method according to the invention is preferably not restricted to brain tumors and the like, but can in particular be applied to other types of tissue such as e.g. Expand bones. Health data, for example, can also be analyzed with the method according to the invention in order, for example, to ascertain a probability of occurrence of a specific disease, for example diabetes, on the basis of genetic markers and / or medication revenues and / or previous illnesses and / or laboratory values
Auch ist das Verfahren vorzugsweise nicht auf medizinische Anwendungen beschränkt, sondern es können insbesondere auch spektrale Daten oder Eingabevektoren von Flüssigkeiten oder Gasen untersucht werden. Also, the method is preferably not limited to medical applications, but in particular also spectral data or input vectors of liquids or gases can be examined.
Bei einer weiteren Ausführungsform des Verfahrens ist der zweite Eingabevektor ein gemessenes Spektrum des Zielsystems. Bei einer weiteren Ausführungsform des Verfahrens ist das gemessene Spektrum ein Spektrum von Gewebe, wobei der zweite Ausgabevektor insbesondere angibt, ob es sich um gesundes Ge¬ webe oder Tumorgewebe handelt. Bei einer weiteren Ausführungsform des Verfahrens ist das gemessene Spektrum ein Spektrum von Ölen und/oder Schmiermitteln, wobei der zweite Ausgabevektor insbesondere eine Quali¬ tät der Öle oder Schmiermittel angibt. Bei einer weiteren Ausführungsform des Verfahrens wird für die dimensionsreduzierten zweiten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ur- sprünglicher zweiter Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels einer zweiten Daten¬ transformation rekonstruiert, und es wird ein Fehler zwischen dem rekonstruierten ursprünglichen zweiten Verarbeitungsvektor und dem übertragenen zweiten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt. In a further embodiment of the method, the second input vector is a measured spectrum of the target system. In a further embodiment of the method the measured spectrum is a spectrum of tissue, wherein the second output vector in particular indicating whether it is healthy tissue Ge ¬ or tumor tissue. In a further embodiment of the method the measured spectrum is a spectrum of oils and / or lubricants, wherein the second output vector indicative of a particular quality ¬ ty of oils or lubricants. In a further embodiment of the method for the dimension-reduced second processing vectors that result for the hidden layers, reconstructed in each case one originally sprünglicher second processing vector for each of a respective hidden layer by means of a second data ¬ transformation, and there is an error between the reconstructed original second processing vector and the transmitted second processing vector for the respective hidden layer concerned.
Bei einer weiteren Ausführungsform des Verfahrens wird für die dimensionsreduzierten zweiten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ur- sprünglicher zweiter Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels einer zweiten Daten¬ transformation rekonstruiert, und es wird ein Fehler zwischen dem rekonstruierten ursprünglichen zweiten Verarbeitungsvektor und dem übertragenen zweiten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt. In a further embodiment of the method for the dimension-reduced second processing vectors that result for the hidden layers, reconstructed in each case one originally sprünglicher second processing vector for each of a respective hidden layer by means of a second data ¬ transformation, and there is an error between the reconstructed original second processing vector and the transmitted second processing vector for the respective hidden layer concerned.
Das Verfahren ist insbesondere dahingehend vorteilhaft, um beispielsweise eine Aussage über die Qualität, insbesondere über einen zu erwartenden Fehler, von extrahierten Merkmalen eines dimensionsreduzierten ersten Verarbeitungsvektors einer versteckten Schicht, beispielsweise die betreffende versteck¬ te Schicht, treffen zu können. The method is particularly advantageous in order to make, for example, a statement about the quality, in particular an expected error of extracted features of a dimension-reduced first processing vector of a hidden layer, for example, the relevant hidden ¬ th layer.
Bei einer weiteren Ausführungsform des Verfahrens wird der ermittelte Fehler, für ein Konfigurieren der jeweiligen betreffenden versteckten Schicht oder der jeweiligen nachfolgenden versteckten Schicht, welcher der dimensionsreduzierte erste Verarbeitungsvektor übermittelt wird, berücksichtigt. Das Verfahren ist insbesondere dahingehend vorteilhaft, dass hierdurch eine Genauigkeit des Klassifikationsergebnisses verbessert wird. Insbesondere wird das Zielsystem und dessen Verhalten genauer modelliert und insbesondere können eine Qualität von Merkmalen, die beispielsweise durch die ver¬ steckte Schicht aus den Verarbeitungsvektor/en extrahiert werden, verbessert werden. Hierdurch können beispielsweise Fehler bei den extrahierten Merkmalen reduziert werden. Ins- besondere ist es zusätzlich ebenfalls möglich, beispielsweise das trainierte tiefe neuronale Netz auch während einer Analy¬ se von zweiten Eingabevektoren eines Zielsystems weiter zu trainieren . Bei einer weiteren Ausführungsform des Verfahrens wird eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten zweiten Verarbeitungsvektors bestimmt. Das Verfahren ist insbesondere dahingehend vorteilhaft, um die Anzahl der versteckten Schichten für eine bestimmte Klassifikationsaufgabe möglichst gering zu halten und damit ins¬ besondere unnötige Rechenschnitte zu vermeiden. Gemäß einem weiteren Aspekt betrifft die Erfindung eine Kon¬ figurationsvorrichtung zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems aufweisend : In a further embodiment of the method, the determined error, for configuring the respective relevant hidden layer or the respective subsequent hidden layer, to which the dimension-reduced first processing vector is transmitted, is taken into account. The method is particularly advantageous in that thereby an accuracy of the classification result is improved. In particular, the target system and its behavior is modeled more accurately, and in particular a Quality of features that are extracted, for example, by the layer ¬ exposed from the processing vector / s can be improved. In this way, for example, errors in the extracted features can be reduced. In particular, it is also possible in addition to exercise, for example, the trained deep neural network further during a Analy ¬ se of second input vectors of a target system. In a further embodiment of the method, a number of hidden layers is determined from a dimension to be achieved of the dimensionally-reduced second processing vector. The method is particularly advantageous in order to keep the number of hidden layers for a particular classification task as low as possible and to avoid the unnecessary calculation ¬ special cuts. According to a further aspect, the invention relates to a configuration apparatus for the computer-aided configuration of a deep neural network based on a training system, comprising:
ein erstes Bereitstellungsmodul zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem;  a first provisioning module for providing training data with predetermined first input vectors and predetermined first output vectors for the training system;
ein zweites Bereitstellungsmodul zum Bereitstellen des tiefen neuronalen Netzes, wobei  a second provisioning module for providing the deep neural network, wherein
- das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches  - the deep neural network is a feed-forward network, which
eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,  comprises an input layer for inputting the first input vectors,
eine Mehrzahl von aufeinanderfolgenden ver- steckten Schichten zum Modellieren des Trainingssystems umfasst;  a plurality of successive hidden layers for modeling the training system;
ein erstes Trainingsmodul zum Trainieren des tiefen neuronalen Netzes anhand der Trainingsdaten, wobei die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen erste Verarbeitungsvektoren durchgeführt werden, bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt, a first training module for training the deep neural network based on the training data, wherein the first input vectors are each transmitted via the input layer to one of the hidden layers as first processing vectors, the first processing vectors are each transmitted between the hidden layers, each for a hidden layer a respective first data transformation of the transmitted first processing vectors are performed, in the respective first data transformation a dimension reduction of the first processing vectors takes place for a respective hidden layer,
die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.  the hidden layers are configured based on the dimensionally reduced first processing vectors and the respective associated first output vectors.
Gemäß einem weiteren Aspekt betrifft die Erfindung eine Ana¬ lysevorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems aufweisend: eine drittes Bereitstellungsmodul zum Bereitstellen des zweiten Eingabevektors für das Zielsystem; According to a further aspect, the invention relates to a Ana ¬ lytic apparatus for computer-aided analyzing at least one second input vector of a target system comprising: a third supplying module for supplying the second input vector for the target system;
ein viertes Bereitstellungsmodul zum Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei  a fourth provisioning module for providing a trained deep neural network, wherein
- das neuronale Netz ein Feed-Forward-Netz ist, welches  - The neural network is a feed-forward network, which
eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden ver- steckten Schichten umfasst, die das Zielsystem modellieren, und  an input layer for inputting the second input vector for the target system, comprising a plurality of consecutive hidden layers modeling the target system, and
eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem umfasst, ein erstes Auswertemodul zum Auswerten des zweiten Ein- gabevektors, wobei  an output layer for outputting a second output vector for the target system, a first evaluation module for evaluating the second input vector, wherein
der zweite Eingabevektor jeweils über die Eingabe¬ schicht an eine der versteckten Schichten als zweiter Verarbeitungsvektor übertragen wird, der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird, the second input vector is transmitted in each case via the input ¬ layer to one of the hidden layers as second processing vector, the second processing vector is transferred between the hidden layers,
jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,  in each case for a hidden layer a respective first data transformation of the transmitted second processing vector is carried out,
bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte  at the respective first data transformation, a dimension reduction of the second processing vector respectively for a respective hidden one
Schicht erfolgt,  Layer takes place,
- der zweite Ausgabevektor anhand eines dimensionsre¬ duzierten zweiten Verarbeitungsvektors ermittelt wird; - the second output vector is determined using a dimensionsre ¬ duced second processing vector;
ein fünftes Bereitstellungsmodul zum Bereitstellen des zweiten Ausgabevektors.  a fifth provisioning module for providing the second output vector.
Des Weiteren wird ein Computerprogrammprodukt mit Programmbe¬ fehlen zur Durchführung der genannten erfindungsgemäßen Verfahren beansprucht, wobei mittels des Computerprogrammpro¬ dukts jeweils eines der erfindungsgemäßen Verfahren, alle er- findungsgemäßen Verfahren oder eine Kombination der erfindungsgemäßen Verfahren, durchführbar ist. Furthermore, a computer program product with Programmbe ¬ is missing for carrying out the method according to the invention mentioned claims, wherein each one of the methods according to the invention, all the methods of the invention or a combination of the methods of the invention can be carried out by means of the Computerprogrammpro ¬ domestic product.
Zusätzlich wird eine Variante des Computerprogrammproduktes mit Programmbefehlen zur Konfiguration eines Erstellungsge- räts, beispielsweise ein 3D-Drucker oder ein zur Erstellung von Prozessoren und/oder Geräten, beansprucht, wobei das Erstellungsgerät mit den Programmbefehlen derart konfiguriert wird, dass die genannte erfindungsgemäße Konfigurationsvor¬ richtung und/oder die Analysevorrichtung erstellt wird. In addition, a variant of the computer program product with program instructions for configuring a creation device, for example a 3D printer or for creating processors and / or devices, claimed, wherein the creation device is configured with the program commands such that said configuration device according to the invention ¬ direction and / or the analysis device is created.
Darüber hinaus wird eine Bereitstellungsvorrichtung zum Speichern und/oder Bereitstellen des Computerprogrammprodukts be¬ ansprucht. Die Bereitstellungsvorrichtung ist beispielsweise ein Datenträger, der das Computerprogrammprodukt speichert und/oder bereitstellt. Alternativ und/oder zusätzlich ist die Bereitstellungsvorrichtung beispielsweise ein Netzwerkdienst, ein Computersystem, ein Serversystem, insbesondere ein verteiltes Computersystem, ein cloudbasiertes Rechnersystem und/oder virtuelles Rechnersystem, welches das Computerpro¬ grammprodukt vorzugsweise in Form eines Datenstroms speichert und/oder bereitstellt. Diese Bereitstellung erfolgt beispielsweise als Download in Form eines Programmdatenblocks und/oder Befehlsdatenblocks, vorzugsweise als Datei, insbesondere als Downloaddatei, oder als Datenstrom, insbesondere als Downloaddatenstrom, des vollständigen Computerprogrammprodukts. Diese Bereitstellung kann beispielsweise aber auch als partieller Download erfol¬ gen, der aus mehreren Teilen besteht und insbesondere über ein Peer-to-Peer Netzwerk heruntergeladen oder als Datenstrom bereitgestellt wird. Ein solches Computerprogrammprodukt wird beispielsweise unter Verwendung der Bereitstellungsvorrich- tung in Form des Datenträgers in ein System eingelesen und führt die Programmbefehle aus, sodass das erfindungsgemäße Verfahren auf einem Computer zur Ausführung gebracht wird oder das Erstellungsgerät derart konfiguriert, dass dieses die erfindungsgemäße Konfigurationsvorrichtung und/oder die Analysevorrichtung erstellt. In addition, a provision device for storing and / or providing the computer program product is claimed . The provisioning device is, for example, a data carrier which stores and / or makes available the computer program product. Alternatively and / or additionally, the provisioning device is, for example, a network service, a computer system, a server system, in particular a distributed computer system, a cloud-based computer system and / or virtual computer system which Computerpro ¬ program product preferably in the form of a data stream stores and / or provides. This provision takes place, for example, as a download in the form of a program data block and / or command data block, preferably as a file, in particular as a download file, or as a data stream, in particular as a download data stream, of the complete computer program product. This provision, for example, but also as a partial download SUC ¬ gen, which consists of several parts, in particular through a peer-to-peer network downloaded or is provided as a data stream. Such a computer program product is read into a system using the provision device in the form of the data carrier, for example, and executes the program instructions so that the method according to the invention is executed on a computer or the configuration device is configured in such a way that the configuration device according to the invention and / or created the analyzer.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusam- menhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Figuren näher erläutert werden. Dabei zeigen in schematischer Darstellung: The above-described characteristics, features, and advantages of this invention, as well as the manner in which they will be achieved, will become clearer and more clearly understood in connection with the following description of the embodiments which will be described in connection with the figures. This show in a schematic representation:
Fig. 1 ein Ablaufdiagramm eines ersten Ausführungsbei- spiels des erfindungsgemäßen Verfahrens zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems; 1 shows a flowchart of a first exemplary embodiment of the method according to the invention for the computer-aided configuration of a deep neural network on the basis of a training system;
Fig. 2 ein Ablaufdiagramm eines weiteren Ausführungsbei- spiels des erfindungsgemäßen Verfahrens zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems; Fig. 3a-b Datenstrukturen eines tiefen neuronalen Netzes weiterer Ausführungsbeispiele der Erfindung; 2 shows a flow chart of a further exemplary embodiment of the method according to the invention for computer-aided analysis of at least one second input vector of a target system; 3a-b data structures of a deep neural network of further embodiments of the invention;
Fig. 4 eine Konfigurationsvorrichtung eines weiteren Ausführungsbeispiels der Erfindung; und 4 shows a configuration device of a further embodiment of the invention; and
Fig. 5 eine Analysevorrichtung eines weiteren Ausführungsbeispiels der Erfindung; In den Figuren sind funktionsgleiche Elemente mit denselben Bezugszeichen versehen, sofern nichts anderes angegeben ist. 5 shows an analysis device of a further embodiment of the invention; In the figures, functionally identical elements are provided with the same reference numerals, unless stated otherwise.
Die nachfolgenden Ausführungsbeispiele weisen, sofern nicht anders angegeben oder bereits angegeben, zumindest einen Pro- zessor und/oder eine Speichereinrichtung auf, um das Verfahren zu implementieren oder auszuführen. Unless stated otherwise or already stated, the following exemplary embodiments have at least one processor and / or a memory device in order to implement or execute the method.
Die Fig. 1 zeigt ein Ablaufdiagramm eines ersten Ausführungsbeispiels des erfindungsgemäßen Verfahren zum rechnergestütz- ten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems . 1 shows a flow chart of a first exemplary embodiment of the method according to the invention for the computer-aided configuration of a deep neural network on the basis of a training system.
Im Einzelnen zeigt die Fig. 1 ein Verfahren zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems mit einem ersten Verfahrensschritt 110 zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem. Das Verfahren umfasst einen zweiten Verfahrensschritt 120 zum Bereitstellen des tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist. Das Feed-Forward Netz umfasst eine Eingabeschicht zur Eingabe der ersten Ein¬ gabevektoren und eine Mehrzahl von aufeinanderfolgenden ver- steckten Schichten zum Modellieren des Trainingssystems. 1 shows a method for computer-aided configuration of a deep neural network on the basis of a training system with a first method step 110 for providing training data with predetermined first input vectors and predetermined first output vectors for the training system. The method comprises a second method step 120 for providing the deep neural network, wherein the deep neural network is a feed-forward network. The feed-forward network includes an input layer for inputting the first ¬ A transfer vectors and a plurality of successive layers comparable infected for modeling the training system.
Das Verfahren umfasst einen dritten Verfahrensschritt 130 zum Trainieren des tiefen neuronalen Netzes anhand der Trainings- daten, wobei die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden. In dem dritten Verfahrensschritt 130 werden zusätzlich die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen und es werden jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der über¬ tragenen erste Verarbeitungsvektoren durchgeführt. The method comprises a third method step 130 for training the deep neural network on the basis of the training data, wherein the first input vectors are each transmitted via the input layer to one of the hidden layers as first processing vectors. In the third method step 130, the first processing vectors are additionally each be transferred between the hidden layers and are each a hidden layer having a respective first data transformation of transmitted via ¬ first processing vectors performed.
In dem dritten Verfahrensschritt 130 erfolgt zusätzlich bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht und es werden die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert. In the third method step 130, in addition to the respective first data transformation, a dimension reduction of the first processing vectors for a particular hidden layer takes place and the hidden layers are configured on the basis of the dimensionally reduced first processing vectors and the respective associated first output vectors.
In einer bevorzugten Variante ist ein Prozessor speziell dazu eingerichtet, Programmbefehle derart auszuführen, damit ein Prozessor Funktionen ausführt, um das erfindungsgemäße Ver¬ fahren oder mindestens einen der Schritte des erfindungsgemä¬ ßen Verfahrens zu implementieren. Die Fig. 2 zeigt ein Ablaufdiagramm eines weiteren Ausführungsbeispiels des erfindungsgemäßen Verfahrens zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems. Im Einzelnen zeigt die Fig. 2 ein Verfahren zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems mit einem ersten Verfahrensschritt 210 zum Bereitstellen des zweiten Eingabevektors für das Zielsystem. Das Verfahren umfasst einen zweiten Verfahrensschritt 220 zum Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist. Das Feed-Forward Netz umfasst eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten, die das Zielsystem modellieren, und eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem. In a preferred embodiment a processor is specifically adapted to carry out program instructions in such a way so that one processor performs functions to drive the inventive Ver ¬ or at least to implement one of the steps of the inventive method ¬ SEN. FIG. 2 shows a flow chart of a further embodiment of the method according to the invention for computer-aided analysis of at least one second input vector of a target system. 2 shows a method for computer-aided analysis of at least one second input vector of a target system with a first method step 210 for providing the second input vector for the target system. The method includes a second method step 220 for providing a trained deep neural network, wherein the deep neural network is a feed-forward network. The feed-forward network includes an input layer for entering the second input vector for the target system, a plurality of consecutive hidden layers modeling the target system, and an output layer for outputting a second output vector for the target system.
Das Verfahren umfasst einen dritten Verfahrensschritt 230 zum Auswerten des zweiten Eingabevektors, wobei der zweite Einga¬ bevektor jeweils über die Eingabeschicht an eine der ver¬ steckten Schichten als zweiter Verarbeitungsvektor übertragen wird und der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird. The method includes a third step 230 to evaluate the second input vector, said second entranc ¬ bevektor is transmitted as the second processing vector respectively using the input layer on one of the ver ¬ inserted layers and the second processing vector is in each case transmitted between the hidden layers.
In dem dritten Verfahrensschritt 230 wird zusätzlich jeweils für eine versteckte Schicht eine jeweilige erste Datentrans- formation des übertragenen zweiten Verarbeitungsvektors durchgeführt und es erfolgt bei der jeweiligen ersten Daten¬ transformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte Schicht. In dem dritten Verfahrensschritt 230 wird zusätzlich der zweite Ausgabevektor anhand eines dimensionsreduzierten zweiten Verarbeitungsvektors ermittelt. In the third method step 230, a respective first Datentrans- is performed formation of the transferred second processing vector addition in each case for a hidden layer, and it is carried out at the respective first data ¬ transformation a dimensional reduction of the second processing vector each for a respective hidden layer. In the third method step 230, the second output vector is additionally determined on the basis of a dimension-reduced second processing vector.
Bei dem dimensionsreduzierten zweiten Verarbeitungsvektor kann es sich beispielsweise um einen mehrfach dimensionsredu¬ zierten zweiten Verarbeitungsvektor handeln. Insbesondere handelt es sich bei dem mehrfach dimensionsreduzierten zweiten Verarbeitungsvektor also um einen zweiten Verarbeitungsvektor der schrittweise von mehreren versteckten Schichten verarbeitet wurde, bis beispielsweise der mehrfachdimensions- reduzierte zweite Verarbeitungsvektor eine vorgegebene Dimen¬ sion erreicht hat. The dimension-reduced second processing vector can be, for example, a multiply dimensionally reduced second processing vector. In particular, in the multi-dimension-reduced second processing vector that is to say a second processing of the vector was gradually processed by multiple hidden layers, to, for example, the mehrfachdimensions- reduced second vector processing has reached a predetermined dimen sion ¬.
Das Verfahren umfasst einen vierten Verfahrensschritt 240 zum Bereitstellen des zweiten Ausgabevektors. The method includes a fourth method step 240 for providing the second output vector.
In einer bevorzugten Variante ist ein Prozessor speziell dazu eingerichtet, Programmbefehle derart auszuführen, damit ein Prozessor Funktionen ausführt, um das erfindungsgemäße Ver¬ fahren oder mindestens einen der Schritte des erfindungsgemä¬ ßen Verfahrens zu implementieren. Mit anderen Worten ist insbesondere das in der Fig. 1 und/oder in der Fig. 2 erläuterte Verfahren dazu geeignet, bei einer Operation, insbesondere bösartiger Tumore zu ermit¬ teln, ob vorzugsweise tatsächlich alle befallenen Zellen aus dem betroffenen Bereich entfernt wurden. Dies hat insbesonde- re den Vorteil, ein Streuen bzw. eine erneute Entstehung des Tumors zu verhindern. Dies ist insbesondere dann von ent¬ scheidender Bedeutung, wenn der Tumor in kritischem Gewebe auftritt, das heißt wenn durch das Entfernen gesunder Zellen bleibende Schäden für den Patienten entstehen können (z. B. bei Gehirntumoren) . Insbesondere ist in solchen Situationen die korrekte Klassifikation der Grenzbereiche zwischen gesunden und befallenen Zellen entscheidend. In a preferred variant, a processor is specially adapted to execute program instructions in such a way as to enable Processor performs functions according to the invention Ver ¬ drive the, or at least to implement one of the steps of the inventive method ¬ SEN. In other words, the method explained in FIG. 1 and / or in the FIG. 2 process is particularly suitable in an operation, in particular of malignant tumors to ermit ¬ stuffs whether indeed preferably all infected cells were removed from the affected area. This has the advantage, in particular, of preventing the tumor from spreading or re-forming. This is particularly of ent ¬ critical importance when the tumor occurs in critical tissue, that is, when by the removal of healthy cells can cause permanent damage to the patient (z. B. with brain tumors). In particular, in such situations, the correct classification of the boundaries between healthy and affected cells is crucial.
Zwar können beispielsweise bildgebende diagnostische Verfah- ren, die im Vorfeld der Operation angewandt werden, für die Operations-Planung einen wichtigen Beitrag liefern. Jedoch können diese bildgebenden diagnostischen Verfahren während der Operation beispielsweise nur begrenzt zur Darstellung und Identifikation des Tumors herangezogen werden. Admittedly, for example, imaging diagnostic procedures that are used in the run-up to surgery can make an important contribution to surgical planning. However, for example, these imaging diagnostic procedures can be limited to imaging and identification of the tumor during surgery.
Insbesondere können mit Hilfe der Spektroskopie im nahen Inf¬ rarot (NIR) während der Operation in Echtzeit die spektralen Eigenschaften des vorliegenden Gewebes bestimmt und bei¬ spielsweise für die Unterscheidung der Tumorzellen vom umlie- genden gesunden Gewebe herangezogen werden. In particular, using the spectroscopy in the near Inf ¬ rarot (NIR) during the operation in real time determines the spectral properties of the present fabric and are at play as used ¬ for the differentiation of the tumor cells from the surround- ing healthy tissue.
Insbesondere können mit den in der Fig. 1 und/oder in der Fig. 2 erläuterten Verfahren die aufgezeichneten Spektren als (zweite) Eingabevektoren für eine automatisierte Differenzie- rung der unterschiedlichen Zell-Typen verwendet werden. Insbesondere stellt die Erfindung dem operierenden Arzt eine zu¬ sätzliche Entscheidungshilfe bei der Abgrenzung zwischen Tu¬ mor- und nicht-Tumorzellen (oder Gewebe) zur Verfügung. Im Einzelnen ist insbesondere eine Differenzierung von Tumorzellen und gesundem Gewebe anhand von aufgezeichneten NIR- Spektren mit konventionellen Verfahren schwierig, da sich die Unterscheidungsmerkmale in den NIR-Spektren nur schwer identifizieren lassen. In particular, with the methods explained in FIG. 1 and / or in FIG. 2, the recorded spectra can be used as (second) input vectors for automated differentiation of the different cell types. In particular, the invention provides the surgeon to a ¬ additional decision support in the demarcation between Tu ¬ tomorrow and non-tumor cells (or tissue) are available. In particular, differentiation of tumor cells and healthy tissue from recorded NIR spectra is difficult with conventional methods, as the distinguishing features are difficult to identify in the NIR spectra.
Insbesondere ist es mit dem in der Fig. 1 und/oder dem in der Fig. 2 erläuterten Verfahren beispielsweise möglich, auf Ba- sis einer Trainingsmenge eine Klassifikation der gemessenen Spektren vorzunehmen, bei der insbesondere auch feinste spektrale Unterscheidungsmerkmale genutzt werden können. Ins¬ besondere kann hierdurch bestimmt werden, ob es sich um Tumorgewebe oder gesundes Gewebe handelt. Dieses Bestimmen ent- spricht vorzugsweise der Klassifikationsaufgabe. Außerdem ist man, insbesondere mit den in der Fig. 1 und/oder in der Fig. 2 erläuterten Verfahren, in der Lage auch komplexe nichtlineare Zusammenhänge zwischen Input-Signal , beispielsweise die ersten oder zweiten Eingabevektoren, und Ausgabe (in die- sem Fall Klassifikation) , beispielsweise die ersten oder zweiten Ausgabevektoren, darzustellen oder zu erkennen. In particular, with the method illustrated in FIG. 1 and / or in FIG. 2, it is possible, for example, to classify the measured spectra on the basis of a training set, in which even the finest spectral distinguishing features can be used. Ins ¬ special can be determined this way, whether it is tumor tissue or healthy tissue. This determination preferably corresponds to the classification task. In addition, in particular with the methods explained in FIG. 1 and / or in FIG. 2, it is also possible to have complex non-linear relationships between input signal, for example the first or second input vectors, and output (in this case Classification), for example, the first or second output vectors to represent or recognize.
Um beispielsweise eine gute Interpretierbarkeit des erzielten Ergebnisses oder des (zweiten) Ausgabevektors für den Anwen- der zu ermöglichen, kann insbesondere der Ausgabevektor mit Hilfe einer entsprechenden Konfiguration des tiefen neuronalen Netzes in eine vorgegebene Form gebracht werden. Es ist beispielsweise möglich den Ausgabevektor in eine Form einer Wahrscheinlichkeitsaussage über die Zugehörigkeit, beispiels- weise gesundes oder krankes Gewebe, der vermessenen Probe zu bringen . In order, for example, to enable a good interpretability of the result obtained or of the (second) output vector for the user, in particular the output vector can be brought into a predetermined form with the aid of a corresponding configuration of the deep neural network. It is possible, for example, to bring the output vector into a form of a probability statement about the affiliation, for example healthy or diseased tissue, of the measured sample.
Sobald beispielsweise mit Hilfe eines geeigneten tiefen neuronalen Netzes oder einer geeigneten Architektur eines tiefen neuronalen Netzes eine ZuOrdnungsvorschrift für dieAs soon as, for example, with the aid of a suitable deep neural network or a suitable architecture of a deep neural network, an assignment rule for the
Klassifikationsaufgabe aus den Trainingsdaten gelernt wurde, wie beispielsweise in Fig. 1 erläutert, lässt sich das tiefe neuronale Netz insbesondere als Input/Output-Relation auf zweite Eingabevektoren, wie in Fig. 2 erläutert, mit Hilfe einer geeigneten Software Implementierung vorzugsweise in Echtzeit anwenden. Insbesondere erlaubt die Architektur des tiefen neuronalen Netzes, insbesondere durch der Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems, eine problemlose Erweiterung der Klas¬ sifikationsaufgabe auch für andere Gewebetypen. Vorstellbar wäre es beispielsweise noch zusätzlich eine Klassifikation von Knochenmaterial oder Fettgewebe einzuführen. Classification task was learned from the training data, as explained for example in Fig. 1, the deep neural network in particular as an input / output relation on second input vectors, as explained in FIG. 2, preferably apply real-time implementation using suitable software. Specifically, the architecture allows the deep neural network, in particular by the plurality of successive hidden layers for modeling the training system, a smooth extension of the Klas ¬ sifikationsaufgabe to other tissue types. It would be conceivable, for example, additionally to introduce a classification of bone material or fatty tissue.
Insbesondere sind die erfindungsgemäßen Verfahren dazu in der Lage, insbesondere die Spektren von gesunden Zellen und Tu¬ morzellen zu differenzieren, die insbesondere nur schwer identifizierbare Eigenschaften unterscheiden. Insbesondere sind konventionelle Clusteringverfahren, die auf Ähnlichkeitsanalysen basieren, dafür nicht geeignet. In particular, the inventive methods to be able, in particular, the spectra of healthy cells and Tu ¬ morzellen to differentiate, distinguish the particular difficulties identifiable characteristics. In particular, conventional clustering methods based on similarity analyzes are not suitable for this.
Die Fig. 3a zeigt eine Datenstruktur eines tiefen neuronalen Netzes eines weiteren Ausführungsbeispiels der Erfindung, wo- bei die Fig. 3a insbesondere eine mögliche Architektur des tiefen neuronalen Netzes darstellt. FIG. 3 a shows a data structure of a deep neural network of a further exemplary embodiment of the invention, with FIG. 3 a in particular representing a possible architecture of the deep neural network.
Insbesondere kann diese Architektur eines tiefen neuronalen Netzes von dem erfindungsgemäßen Verfahren aus Fig. 1 oder dem erfindungsgemäßen Verfahren aus Fig. 2 verwendet werden. In particular, this architecture of a deep neural network can be used by the method according to the invention from FIG. 1 or the method according to the invention from FIG. 2.
Im Einzelnen zeigt Fig. 3a eine Eingabeschicht E zur Eingabe von Eingabevektoren, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten und eine Ausgabeschicht 0 zur Ausgabe eines Ausgabevektors. In diesem Ausführungsbeispiel umfasst die Mehrzahl der versteckten Schichten insgesamt vier Schichten, insbesondere eine erste versteckte Schicht VS1, eine zweite versteckte Schicht VS2, eine dritte versteckte Schicht VS3 und eine vierte versteckte Schicht VS4. Specifically, Figure 3a shows an input layer E for input vector input, a plurality of consecutive hidden layers, and an output layer 0 for output of an output vector. In this embodiment, the plurality of hidden layers comprises a total of four layers, in particular a first hidden layer VS1, a second hidden layer VS2, a third hidden layer VS3 and a fourth hidden layer VS4.
Wird beispielsweise ein vorgegebener erster Eingabevektor zum Trainieren des tiefen neuronalen Netzes von der Eingabeschicht an die erste versteckte Schicht VS1 in Form eines ersten Verarbeitungsvektors übermittelt, wird insbesondere für die erste versteckte Schicht VS1 eine erste Datentrans¬ formation, beispielsweise eine Datentransformation A, des ersten Verarbeitungsvektors zu dessen Dimensionsreduktion durchgeführt. Die erste versteckte Schicht VS1 analysiert den dimensionsreduzierten ersten Verarbeitungsvektor und extrahiert mittels einer Funktion a aus diesem beispielsweise Merkmale y. Diese Merkmale y werden dann mit den bereits ex¬ trahierten Merkmalen eines vorgegebenen ersten Ausgabevektors verglichen und anhand der ermittelten Unterschiede (oder auch Fehler genannt) werden die Neuronen der ersten Schicht konfiguriert . For example, if a predetermined first input vector for training the deep neural network from the input layer to the first hidden layer VS1 in the form of a transmitted first processing vector, in particular for the first hidden layer VS1 a first data trans ¬ formation, for example, a data transformation A, the first processing vector is performed to reduce its dimensions. The first hidden layer VS1 analyzes the dimension-reduced first processing vector and extracts by means of a function a from this, for example, features y. These features y are then compared with the already ex ¬ trahierten features of a predetermined first output vector and based on the determined differences (or also called the error) to be configured, the neurons of the first layer.
Danach wird der dimensionsreduzierte erste Verarbeitungsvek- tor der nachfolgenden versteckten Schicht (zweite versteckte Schicht VS2) übertragen. Für die zweite versteckte Schicht VS2 wird mittels einer ersten Datentransformation, beispielsweise eine Datentransformation B, eine weitere Dimensionsre¬ duktion des dimensionsreduzierte ersten Verarbeitungsvektors, der von der ersten verstecken Schicht VS1 dimensionsreduziert übermittelt wurde, durchgeführt. Thereafter, the dimension-reduced first processing vector of the subsequent hidden layer (second hidden layer VS2) is transmitted. For the second hidden layer VS2, for example, a data transformation B, another Dimensionsre ¬ production of dimensionally reduced first processing vector which hide from the first layer VS1 was transmitted dimensionally reduced, is carried out by means of a first data transformation.
Die zweite versteckte Schicht VS2 analysiert den mehrfach (zweifach) dimensionsreduzierten ersten Verarbeitungsvektor und extrahiert mittels einer Funktion b aus diesem beispiels¬ weise wiederum Merkmale y. Diese Merkmale y werden dann mit weiteren bereits extrahierten Merkmalen des vorgegebenen ersten Ausgabevektors verglichen und anhand der ermittelten Unterschiede werden die Neuronen der zweiten Schicht VS2 konfi- guriert. The second hidden layer VS2 analyzes the multiple (twice) dimension-reduced first processing vector and extracted by means of a function B of this example, again features ¬ y. These features y are then compared with other already extracted features of the predetermined first output vector, and based on the determined differences, the neurons of the second layer VS2 are configured.
Diese Schritte der Analyse bzw. Konfiguration werden dann analog für die dritte versteckte Schicht mit einer ersten Da¬ tentransformation, beispielsweise eine Datentransformation C, und für die vierte versteckte Schicht mit einer ersten Daten¬ transformation, beispielsweise eine Datentransformation D, durchgeführt . Dabei sind insbesondere unter einer ersten Datentransformati¬ on die Datentransformationen der entsprechenden versteckten Schichten zu verstehen. Der Ausgabeschicht 0 wird insbesondere der mehrfach (4-fach) dimensionsreduzierte erste Verarbeitungsvektor übergeben, mit dem ersten Ausgabevektor verglichen und ggf. Unterschiede zwischen dem mehrfach dimensionsreduzierte erste Verarbei¬ tungsvektor und dem ersten Ausgabevektor ermittelt. Die Aus- gabeschicht bzw. Neuronen der Ausgabeschicht können dann ent¬ sprechend der ermittelten Unterschiede konfiguriert werden. These steps of the analysis and configuration are then for the third hidden layer having a first Since ¬ tentransformation, for example, a data transformation C, and for the fourth hidden layer having a first data ¬ transformation, for example, a data transformation D, carried out analogously. In particular, under a first Datentransformati ¬ on the data transformations of the respective hidden layers should be understood. The output layer 0 is in particular repeatedly (4 times) passed dimensionally reduced first processing vector, compared with the first output vector and possibly determined differences between the multi-dimensional reduced first proces ¬ weight vector and the first output vector. The output layer neurons or the output layer can then be configured ent ¬ speaking the determined differences.
Eine Analyse eines zweiten Eingabevektors unterscheidet sich insbesondere darin, dass in den versteckten Schichten bei- spielsweise die Merkmale extrahiert werden ohne beispielswei¬ se eine weitere Konfiguration der versteckten Schichten vorzunehmen oder einen Fehler zwischen den extrahierten Merkmalen und einem vorgegebenen ersten Ausgabevektor zu ermitteln. Die extrahierten Merkmale können beispielsweise für die Ana¬ lyse in den Ausgabevektor eingehen oder es wird für den Ausgabevektor beispielsweise nur die extrahierten Merkmale der letzten versteckten Schicht, in diesem Ausführungsbeispiel der vierten versteckten Schicht VS4, berücksichtigt. Es ist aber auch denkbar, dass beispielsweise ein mehrfach dimensi¬ onsreduzierter Verarbeitungsvektor der Ausgabeschicht als Ausgabevektor übermittelt wird, sobald insbesondere eine vor¬ gegebene Dimension des mehrfach dimensionsreduzierten Verarbeitungsvektors erreicht wurde. An analysis of a second input vector differs in particular in that, for example, the features are extracted in the hidden layers without, for example, undertaking a further configuration of the hidden layers or determining an error between the extracted features and a predetermined first output vector. The extracted features may be included in the output vector, for example, for ¬ Ana lysis or it is for the output vector, for example, only the extracted features of the last hidden layer, in this embodiment, the fourth hidden layer VS4 considered. It is also conceivable that, for example, a multi-dimensi ¬ onsreduzierter processing vector of the output layer is transmitted as output vector when one particular was reached before ¬ given dimension of the multi-dimensional reduced processing vector.
Bei der in diesem Ausführungsbeispiel vorgeschlagenen Architektur eines tiefen neuronalen Netzes übermitteln insbesondere die versteckten Schichten zum Training des tiefen neuronalen Netzes oder zur Analyse von Eingabevektoren, die Eingabe- vektoren oder die Verarbeitungsvektoren vorzugsweise nur der nachfolgenden direkt benachbarten Schicht. Die Eingabeschicht kann dabei entweder die Eingabevektoren direkt einer vorgegebenen versteckten Schicht, beispielsweise die erste versteck- te Schicht VS1, übergeben oder eine passende versteckte In particular, in the deep neural network architecture proposed in this embodiment, the hidden layers for deep neural network training or for analysis of input vectors, the input vectors or the processing vectors preferably only transmit the subsequent directly adjacent layer. The input layer can either be the input vectors directly to a given hidden layer, for example the first hidden layer. te layer VS1, pass or a matching hidden
Schicht, die zur Dimension des Eingabevektors passt, auswäh¬ len. Insbesondere wird ein Überspringen von versteckten Layer that matches the dimension of the input vector, auswäh ¬ len. In particular, skipping is hidden
Schichten beim Übermitteln des Verarbeitungsvektors zwischen versteckten Schichten unterbunden. Prevent layers from transmitting the processing vector between hidden layers.
Um insbesondere die Genauigkeit der Konfiguration/Training des tiefen neuronalen Netzes und/oder des Analysierens von Eingabevektoren durch das tiefe neuronale Netz zu verbessern, kann beispielsweise die Architektur des tiefen neuronalenIn particular, to improve the accuracy of the deep neural network configuration / training and / or the analysis of input vectors by the deep neural network, the deep neural architecture may be used
Netzes aus Fig. 3a erweitert werden. Dies ist beispielsweise in Fig. 3b dargestellt. Network be expanded from Fig. 3a. This is illustrated for example in FIG. 3b.
Zusätzlich zur der bereits in Fig. 3a erläuterten Konfigura- tion, werden in Fig. 3b aus dem jeweiligen dimensionsreduzierten Verarbeitungsvektor einer versteckten Schicht mit jeweils einer zweiten Datentransformation jeweils für die entsprechende versteckte Schicht ein rekonstruierter Verarbei¬ tungsvektor berechnet. Mit anderen Worten wird mit der zwei- ten Datentransformation versucht, die Dimensionsreduktion für die jeweilige versteckte Schicht rückgängig zu machen. Der ursprüngliche Verarbeitungsvektor, also der Verarbeitungsvektor für die entsprechende versteckte Schicht, der noch nicht dimensionsreduziert wurde, wird mit dem rekonstruierten Ver- arbeitungsvektor verglichen und ggf. werden Unterschiede zwi¬ schen diesen bzw. Fehler zwischen diesen ermittelt. Der ermittelte Fehler kann dann beispielsweise verwendet werden, um die betreffende versteckte Schicht, für den der Verarbei¬ tungsvektor dimensionsreduziert wurde, zu verbessern, indem beispielsweise die betreffende versteckte Schicht anhand des Fehlers nachjustiert bzw. konfiguriert wird, also insbesonde¬ re die Neuronen der entsprechenden versteckten Schicht konfiguriert werden und Gewichte von entsprechenden Konnektoren von Neuronen angepasst werden. Dieses Nachjustieren oder Kon- figurieren, kann aber auch für die nachfolgende versteckte Schicht durchgeführt werden. Im Einzelnen zeigt Fig. 3b, wie aus dem dimensionsreduzierten Verarbeitungsvektor, der für die erste versteckte Schicht VS1 mittels der ersten Datentransformation dimensionsreduziert wurde, mittels einer zweiten Datentransformation, beispiels- weise eine Datentransformation AT, der ursprüngliche Verarbeitungsvektor Tl, also der Verarbeitungsvektor, der noch nicht für die erste versteckte Schicht VS1 dimensionsredu¬ ziert wurde, rekonstruiert wird. Anschließend wird ein Fehler ldl zwischen dem ursprünglichen Verarbeitungsvektor und dem rekonstruierten Verarbeitungsvektor ermittelt. Anhand des Fehlers kann beispielsweise die betreffende versteckte Tion in addition to the configuration already explained in Fig. 3a may be calculated in Fig. 3b from the respective dimension-reduced vector processing of a hidden layer, each having a second data transformation for each of the corresponding hidden layer, a reconstructed proces ¬ tung vector. In other words, the second data transformation attempts to undo the dimension reduction for the particular hidden layer. The original processing vector, ie the vector processing for the corresponding hidden layer, which has not yet dimensionally reduced, compared with the reconstructed processing vector, and if necessary differences are determined Zvi ¬ exploiting that or error between them. The error detected can then for example be used to improve the respective hidden layer for which the proces ¬ tung vector has been dimensionally reduced by the respective hidden layer is adjusted based on the error or configured, for example, so insbesonde ¬ re the neurons of the corresponding Hidden layer can be configured and weights adjusted by corresponding connectors of neurons. This readjustment or configuration can also be carried out for the subsequent hidden layer. In detail, FIG. 3b shows how from the dimension-reduced processing vector, which was dimension-reduced for the first hidden layer VS1 by means of the first data transformation, by means of a second data transformation, for example a data transformation AT, the original processing vector Tl, ie the processing vector, still exists is not sheet for the first hidden layer VS1 dimensionsredu ¬ reconstructed. Subsequently, an error ldl between the original processing vector and the reconstructed processing vector is determined. On the basis of the error, for example, the relevant hidden
Schicht, also die erste versteckte Schicht VS1, oder die nachfolgende versteckte Schicht, also die zweite versteckte Schicht VS2, genauer konfiguriert werden und das tiefe neuro- nale Netz besser trainiert werden. Hierdurch kann insbesondere die Genauigkeit, mit der die Klassifikationsausgabe gelöst wird, verbessert werden. Mit anderen Worten wird damit insbe¬ sondere der Fehler des Ausgabevektors soweit möglich mini¬ miert . Layer, ie the first hidden layer VS1, or the subsequent hidden layer, ie the second hidden layer VS2, can be configured more precisely and the deep neural network can be better trained. As a result, in particular the accuracy with which the classification output is solved can be improved. In other words, so that in particular ¬ sondere the error of the output vector is as far as possible mini ¬ mized.
Dieses Fehlerermitteln und verbessern der Konfiguration der versteckten Schichten wird dann analog auf die anderen versteckten Schichten angewendet. Das Verfahren kann je nach Anwendungsszenario beispielsweise auf alle versteckten Schich- ten angewendet werden oder beispielsweise nur auf einen Teil der versteckten Schichten angewendet werden. This error finding and improving the configuration of the hidden layers is then applied analogously to the other hidden layers. Depending on the application scenario, for example, the method can be applied to all hidden layers or, for example, applied to only a part of the hidden layers.
Für die zweite versteckte Schicht VS2 bedeutet dies bei¬ spielsweise, dass aus dem mehrfach dimensionsreduzierten Ver- arbeitungsvektor, der für die zweite Schicht VS2 ermittelt wurde, zunächst mittels einer zweiten Datentransformation, beispielsweise die Datentransformation BT, der ursprüngliche Verarbeitungsvektor T2 der zweiten versteckten Schicht VS2, also der Verarbeitungsvektor, der für die vorhergehenden ver- steckten Schichten dimensionsreduziert wurde (also die erste versteckte Schicht VS1), aber noch nicht für die zweite ver¬ steckte Schicht VS2 dimensionsreduziert wurde, rekonstruiert wird. Auch hier wird wieder für die betreffende Schicht ein Fehler ld2 ermittelt, anhand dessen die betreffende Schicht oder die nachfolgende Schicht der betreffenden Schicht weiter konfiguriert wird bzw. die bestehende Konfiguration verbes¬ sert wird. For the second hidden layer VS2, this means at ¬ game as that of the multi-dimensional reduced processing vector which was determined for the second layer VS2, first by means of a second data transformation, such as the data transformation BT, the original processing vector T2 of the second hidden layer VS2 , so the processing vector that has been dimensionally reduced for the previous comparable infected layers (the first hidden layer VS1), but has not yet been dimensionally reduced for the second ver ¬ put layer VS2, is reconstructed. Here, too, will again for the relevant layer Error ld2 determined, based on which the layer in question or the subsequent layer of the relevant layer is further configured or the existing configuration is verbes ¬ sert.
Die Fig. 4 zeigt eine Konfigurationsvorrichtung eines weiteren Ausführungsbeispiels der Erfindung. 4 shows a configuration device of a further embodiment of the invention.
Im Einzelnen zeigt Fig. 4 eine Konfigurationsvorrichtung zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems. Die Konfigurationsvorrich¬ tung umfasst ein erstes Bereitstellungsmodul 410, ein zweites Bereitstellungsmodul 420 und ein erstes Trainingsmodul 430, die mit einem ersten Bus 405 kommunikativ miteinander verbun- den sind. In detail, FIG. 4 shows a configuration device for the computer-aided configuration of a deep neural network on the basis of a training system. The configuration device comprises a first provisioning module 410, a second provisioning module 420 and a first training module 430 communicatively connected to a first bus 405.
Die Konfigurationsvorrichtung kann beispielsweise zusätzlich noch eine weitere Komponente oder mehrere weitere Komponenten umfassen, wie beispielsweise einen Prozessor, eine Speicher- einheit, ein Eingabegerät, insbesondere eine Computertastatur oder eine Computermaus, oder einen Monitor. Die entsprechende/n Komponente/n können beispielsweise über den ersten Bus 405 mit den anderen Modulen der Konfigurationsvorrichtung kommunikativ verbunden sein. By way of example, the configuration device may additionally comprise a further component or a plurality of further components, such as a processor, a memory unit, an input device, in particular a computer keyboard or a computer mouse, or a monitor. The corresponding component (s) may, for example, be communicatively connected to the other modules of the configuration device via the first bus 405.
Das erste Bereitstellungsmodul 410 ist zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem eingerichtet . The first provisioning module 410 is configured to provide training data having predetermined first input vectors and predetermined first output vectors for the training system.
Das erste Bereitstellungsmodul 410 kann beispielsweise mit¬ tels des Prozessors, der Speichereinheit und einer ersten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen die Trainingsdaten bereitstellen. The first provision module 410 can be implemented for example with ¬ means of the processor, the memory unit and a first program component, which provide for example, by executing program instructions, the training data.
Das zweite Bereitstellungsmodul 420 ist zum Bereitstellen des tiefen neuronalen Netzes eingerichtet, wobei das tiefe neuro- nale Netz ein Feed-Forward-Netz ist. Das Feed-Forward Netz umfasst eine Eingabeschicht zur Eingabe der ersten Eingabe¬ vektoren und eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems. The second provisioning module 420 is set up to provide the deep neural network, the deep neuron network nale network is a feed-forward network. The feedforward network includes an input layer for inputting the first input ¬ vectors and a plurality of successive hidden layers for modeling the training system.
Das zweite Bereitstellungsmodul 420 kann beispielsweise mit¬ tels des Prozessors, der Speichereinheit und einer zweiten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen das tiefe neuronalen Netz bereitstellen. The second provision module 420 can be implemented for example with ¬ means of the processor, the memory unit and a second program component, which provide for example, by executing program instructions the deep neural network.
Das erste Trainingsmodul 430 ist zum Trainieren des tiefen neuronalen Netzes anhand der Trainingsdaten eingerichtet, wo¬ bei die ersten Eingabevektoren jeweils über die Eingabe- schicht an eine der versteckten Schichten als erste Verarbei¬ tungsvektoren übertragen werden und die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden. Zusätzlich ist das erste Trainingsmodul 430 dazu eingerich¬ tet, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen erste Verarbeitungsvektoren durchzuführen und bei der jeweiligen ersten Datentransformation erfolgt eine Dimensionsreduktion der ersten Verar- beitungsvektoren jeweils für eine betreffende versteckte Schicht . The first training module 430 is adapted for training the deep neural network using the training data, where ¬ layer at the first input vectors respectively via the input is transferred to one of the hidden layers as the first proces ¬ tung vectors, and transmit the first processing vectors in each case between the hidden layers become. Additionally, the first training module 430 is to be rich ¬ tet perform a respective first data transformation of the transmitted first processing vectors for each of a hidden layer, and a dimensional reduction of the first processing vectors is carried out at the respective first data transformation for each of a respective one hidden layer.
Zusätzlich ist das erste Trainingsmodul 430 dazu eingerich¬ tet, die versteckten Schichten anhand der dimensionsreduzier- ten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren zu konfigurieren. Additionally, the first training module 430 is to be rich ¬ tet, to configure the hidden layers on the basis of th first dimensionsreduzier- processing vectors and the respective corresponding first output vectors.
Das erste Trainingsmodul 430 kann beispielsweise mittels des Prozessors und einer dritten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen das tiefe neuronalen Netz trainieren. Die Fig. 5 zeigt eine Analysevorrichtung eines weiteren Ausführungsbeispiels der Erfindung. The first training module 430 can be implemented, for example, by means of the processor and a third program component which, for example, train the deep neural network by executing program instructions. Fig. 5 shows an analysis device of another embodiment of the invention.
Im Einzelnen zeigt Fig. 5 eine Analysevorrichtung zum rech- nergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems. Die Analysevorrichtung umfasst ein drittes Bereitstellungsmodul 510, ein viertes Bereitstel¬ lungsmodul 520, ein erstes Auswertemodul 530 und ein fünftes Bereitstellungsmodul 540, die über einen zweiten Bus 505 mit- einander kommunikativ verbunden sind. In detail, FIG. 5 shows an analysis device for computer-aided analysis of at least one second input vector of a target system. The analysis device comprises a third provisioning module 510, a fourth READY ¬ averaging module 520, a first evaluation module 530 and a fifth deployment module 540, the medium-via a second bus 505 are communicatively connected to each other.
Die Analysevorrichtung kann beispielsweise zusätzlich noch eine weitere Komponente oder mehrere weitere Komponenten um¬ fassen, wie beispielsweise einen Prozessor, eine Speicherein- heit, ein Eingabegerät, insbesondere eine Computertastatur oder eine Computermaus, oder einen Monitor. Die entsprechende/n Komponente/n können beispielsweise über den zweiten Bus 505 mit den anderen Modulen der Analysevorrichtung kommunikativ verbunden sein. The analysis device can, for example, in addition to grasp ¬ such as a processor, a uniform Speicherein-, an input device, in particular a computer keyboard or a computer mouse, a monitor or a further component or more further components. For example, the corresponding component (s) may be communicatively coupled to the other modules of the analyzer via the second bus 505.
Das dritte Bereitstellungsmodul 510 ist zum Bereitstellen des zweiten Eingabevektors für das Zielsystem eingerichtet. The third provisioning module 510 is configured to provide the second input vector to the target system.
Das dritte Bereitstellungsmodul 510 kann beispielsweise mit- tels des Prozessors, der Speichereinheit und einer vierten Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen den zweiten Eingabevektor bereitstellen. Das vierte Bereitstellungsmodul 520 ist zum Bereitstellen ei¬ nes trainierten tiefen neuronalen Netzes eingerichtet, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist. Das Feed- Forward Netz umfasst eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten, die das Zielsystem modellieren, und eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem. Das vierte Bereitstellungsmodul 520 kann beispielsweise mit¬ tels des Prozessors, der Speichereinheit und einer fünften Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen das trainierte tiefe neuronale Netz bereitstellen. The third provisioning module 510 can be implemented, for example, by means of the processor, the memory unit and a fourth program component, which provide the second input vector, for example by executing program instructions. The fourth provisioning module 520 is adapted for providing egg ¬ nes deep trained neural network, wherein the deep neural network is a feedforward network. The feed-forward network includes an input layer for inputting the second input vector for the target system, a plurality of consecutive hidden layers modeling the target system, and an output layer for outputting a second output vector for the target system. The fourth provisioning module 520 may be implemented for example with ¬ means of the processor, the memory unit and a fifth program component, which provide for example, by executing program instructions, the trained neural network deep.
Das erste Auswertemodul 530 ist zum Auswerten des zweiten Eingabevektors eingerichtet, wobei der zweite Eingabevektor jeweils über die Eingabeschicht an eine der versteckten The first evaluation module 530 is set up to evaluate the second input vector, wherein the second input vector in each case via the input layer to one of the hidden
Schichten als zweiter Verarbeitungsvektor übertragen wird und der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird. Layers is transmitted as a second processing vector and the second processing vector is transferred between the hidden layers, respectively.
Zusätzlich ist das erste Auswertemodul 530 dazu eingerichtet, dass jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird und, dass bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte Schicht erfolgt. In addition, the first evaluation module 530 is set up so that a respective first data transformation of the transmitted second processing vector is performed for each hidden layer and that in the respective first data transformation a dimension reduction of the second processing vector takes place for a particular hidden layer.
Zusätzlich ist das erste Auswertemodul 530 dazu eingerichtet, dass der zweite Ausgabevektor anhand eines dimensionsredu¬ zierten zweiten Verarbeitungsvektors ermittelt wird. In addition, the first evaluation module 530 is configured such that the second output vector is determined using a dimensionsredu ¬ ed second processing vector.
Das erste Auswertemodul 530 kann beispielsweise mittels des Prozessors und einer sechsten Programmkomponente implemen¬ tiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen den zweiten Eingabevektor mittels des trainier- ten tiefen neuronalen Netzes analysieren. The first evaluation module 530 may be, for example, by means of the processor and a sixth program component implemen ¬ advantage that analyze for example, by executing program instructions the second input vector by means of the deep trainier- th neural network.
Das fünfte Bereitstellungsmodul 540 ist zum Bereitstellen des zweiten Ausgabevektors eingerichtet. Das fünfte Bereitstellungsmodul 540 kann beispielsweise mit¬ tels des Prozessors, der Speichereinheit und einer fünften Programmkomponente implementiert werden, die beispielsweise durch ein Ausführen von Programmbefehlen den zweiten Ausgabevektor bereitstellen. The fifth provisioning module 540 is configured to provide the second output vector. The fifth deployment module 540 may be implemented for example with ¬ means of the processor, the memory unit and a fifth program component, for example, provide the second output vector by executing program instructions.
Obwohl die Erfindung im Detail durch die Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt, und an¬ dere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Although the invention in detail by the embodiments has been illustrated and described more detail, the invention is not limited by the disclosed examples, and can be derived therefrom by the skilled artisan without departing from the scope of the invention to particular ¬ variations.

Claims

Patentansprüche claims
Verfahren zum rechnergestützten Konfigurieren eines tiefen neuronalen Netzes anhand eines Trainingssystems mit folgenden Verfahrensschritten: Method for computer-aided configuration of a deep neural network using a training system with the following method steps:
Bereitstellen (110) von Trainingsdaten mit vorgegebenen ersten Eingabevektoren und vorgegebenen ersten Ausgabevektoren für das Trainingssystem;  Providing (110) training data with predetermined first input vectors and predetermined first output vectors for the training system;
Bereitstellen (120) des tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches  Providing (120) the deep neural network, wherein the deep neural network is a feed-forward network, which
eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,  comprises an input layer for inputting the first input vectors,
eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems umfasst;  a plurality of consecutive hidden layers for modeling the training system;
Trainieren (130) des tiefen neuronalen Netzes anhand der Trainingsdaten, wobei  Training (130) the deep neural network based on the training data, wherein
die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen ersten Verarbeitungsvektoren durchgeführt wird, bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,  the first input vectors are each transmitted via the input layer to one of the hidden layers as the first processing vectors, the first processing vectors are each transferred between the hidden layers, a respective first data transformation of the transmitted first processing vectors is performed for each hidden layer, at the respective first data transformation a dimension reduction of the first processing vectors takes place for a respective hidden layer,
die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.  the hidden layers are configured based on the dimensionally reduced first processing vectors and the respective associated first output vectors.
2. Verfahren nach Anspruch 1, wobei die ersten Eingabevektoren gemessene Spektren des Trainingssystems sind, und wobei die ersten Ausgabevektoren bereits durchgeführte Analyseergebnisse für die Spektren sind. 2. The method of claim 1, wherein the first input vectors are measured spectra of the training system, and wherein the first output vectors are already performed analysis results for the spectra.
3. Verfahren nach Anspruch 2, wobei 3. The method of claim 2, wherein
die gemessene Spektren, Spektren von Gewebe umfassen, und  comprising measured spectra, spectra of tissue, and
die durchgeführte Analyseergebnisse angeben, ob ein Spektrum gesundem Gewebe zuzuordnen ist oder Tumorgewebe zuzuordnen ist.  the results of the analysis indicate whether a spectrum can be assigned to healthy tissue or to tumor tissue.
4. Verfahren nach Anspruch 2, wobei 4. The method of claim 2, wherein
die gemessene Spektren, Spektren von Ölen oder Schmiermitteln umfassen und  the measured spectra, spectra of oils or lubricants include and
die durchgeführte Analyseergebnisse eine Qualität der Öle oder Schmiermittel umfassen.  the analysis results carried out include a quality of the oils or lubricants.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei für die dimensionsreduzierten ersten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ursprünglicher erster Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels ei¬ ner zweiten Datentransformation rekonstruiert wird, ein Fehler zwischen dem rekonstruierten ursprünglichen ersten Verarbeitungsvektor und dem übertragenen ersten Verarbeitungsvektor für die jeweilige betreffende versteckte Schicht ermittelt wird. 5. The method according to any one of the preceding claims, wherein for the dimension-reduced first processing vectors that result for the hidden layers, respectively an original first processing vector for each of a respective one hidden layer is reconstructed using egg ¬ ner second data transformation, an error between the reconstructed original first processing vector and the transmitted first processing vector for each respective hidden layer is determined.
6. Verfahren nach Anspruch 5, wobei der ermittelte Fehler für das Konfigurieren der jeweiligen betreffenden versteckten Schicht oder der jeweiligen nachfolgenden versteckten Schicht, welcher der dimensionsreduzierte erste Verarbeitungsvektor übermittelt wird, berücksichtigt wird . 6. The method of claim 5, wherein the determined error is taken into account for configuring the respective respective hidden layer or the respective subsequent hidden layer to which the dimension-reduced first processing vector is transmitted.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten ersten Eingabevektors bestimmt wird. Verfahren zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsystems mit fol¬ genden Verfahrensschritten: A method according to any one of the preceding claims, wherein a number of hidden layers is determined from a dimension to be reached of the dimensionally reduced first input vector. A method for computer-assisted analyzing at least one second input vector of a target system with fol ¬ constricting method steps:
Bereitstellen (210) des zweiten Eingabevektors für das Zielsystem;  Providing (210) the second input vector for the target system;
Bereitstellen (220) eines trainierten tiefen neuronalen Netzes, wobei  Providing (220) a trained deep neural network, wherein
das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches  the deep neural network is a feed-forward network which
eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfasst, die das Zielsystem modellieren, und  an input layer for inputting the second input vector for the target system, comprising a plurality of consecutive hidden layers modeling the target system, and
eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem umfasst, Auswerten (230) des zweiten Eingabevektors, wobei  an output layer for outputting a second output vector for the target system, evaluating (230) the second input vector, wherein
der zweite Eingabevektor jeweils über die Eingabe¬ schicht an eine der versteckten Schichten als zweiter Verarbeitungsvektor übertragen wird, the second input vector is transmitted in each case via the input ¬ layer to one of the hidden layers as second processing vector,
der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird,  the second processing vector is transferred between the hidden layers,
jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,  in each case for a hidden layer a respective first data transformation of the transmitted second processing vector is carried out,
bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte  at the respective first data transformation, a dimension reduction of the second processing vector respectively for a respective hidden one
Schicht erfolgt,  Layer takes place,
der zweite Ausgabevektor anhand eines dimensionsre¬ duzierten zweiten Verarbeitungsvektors ermittelt wird; the second output vector is determined using a dimensionsre ¬ duced second processing vector;
Bereitstellen (240) des zweiten Ausgabevektors.  Providing (240) the second output vector.
Verfahren nach Anspruch 8, wobei der zweite Eingabevektor ein gemessenes Spektrum des Zielsystems ist. The method of claim 8, wherein the second input vector is a measured spectrum of the target system.
10. Verfahren nach Anspruch 9, wobei das gemessene Spektrum ein Spektrum von Gewebe ist, wobei der zweite Ausgabe¬ vektor insbesondere angibt, ob es sich um gesundes Gewe¬ be oder Tumorgewebe handelt. 10. The method of claim 9, wherein the measured spectrum is a spectrum of tissue, wherein the second output ¬ particular vector indicating whether it is healthy tissue ¬ be or tumor tissue.
11. Verfahren nach Anspruch 9, wobei das gemessene Spektrum ein Spektrum von Ölen und/oder Schmiermitteln ist, wobei der zweite Ausgabevektor insbesondere eine Qualität der Öle oder Schmiermittel angibt. 11. The method of claim 9, wherein the measured spectrum is a spectrum of oils and / or lubricants, wherein the second output vector indicates in particular a quality of the oils or lubricants.
12. Verfahren nach einem der Ansprüche 8 - 11, wobei 12. The method according to any one of claims 8 - 11, wherein
für die dimensionsreduzierten zweiten Verarbeitungsvektoren, die sich für die versteckten Schichten ergeben, jeweils ein ursprünglicher zweiter Verarbeitungsvektor für jeweils eine betreffende versteckte Schicht mittels einer zweiten Datentransformation rekonstruiert wird, ein Fehler zwischen dem rekonstruierten ursprünglichen zweiten Verarbeitungsvektor und dem übertragenen zweiten Verarbeitungsvektor für die jeweilige betreffende ver- steckte Schicht ermittelt wird.  for the dimensionally-reduced second processing vectors resulting in the hidden layers, respectively, an original second processing vector for each respective hidden layer is reconstructed by means of a second data transformation, an error between the reconstructed original second processing vector and the transmitted second processing vector for the respective ver - stuck layer is detected.
13. Verfahren nach Anspruch 12, wobei der ermittelte Fehler, für eine Konfigurieren der jeweiligen betreffenden versteckten Schicht oder der jeweiligen nachfolgenden ver- steckten Schicht, welcher der dimensionsreduzierte erste13. The method of claim 12, wherein the determined error for configuring the respective respective hidden layer or the respective subsequent hidden layer, which is the dimensionally reduced first
Verarbeitungsvektor übermittelt wird, berücksichtigt wird . Processing vector is taken into account.
14. Verfahren nach einem der Ansprüche 8 - 13, wobei eine Anzahl von versteckten Schichten von einer zu erreichenden Dimension des dimensionsreduzierten zweiten Verarbeitungsvektors bestimmt wird. 14. The method of claim 8, wherein a number of hidden layers is determined from a dimension to be achieved of the dimensionally-reduced second processing vector.
15. Konfigurationsvorrichtung zum rechnergestützten Konfigu- rieren eines tiefen neuronalen Netzes anhand eines Trai¬ ningssystems aufweisend: 15. An apparatus for configuring computer-based configurations centering a deep neural network based on a Trai ¬ beginnings system comprising:
ein erstes Bereitstellungsmodul (410) zum Bereitstellen von Trainingsdaten mit vorgegebenen ersten Eingabevekto- ren und vorgegebenen ersten Ausgabevektoren für das TrainingsSystem,· a first provision module (410) for providing training data with predetermined first input vectors ren and predetermined first output vectors for the training system,
ein zweites Bereitstellungsmodul (420) zum Bereitstellen des tiefen neuronalen Netzes, wobei a second provisioning module (420) for providing the deep neural network, wherein
das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches  the deep neural network is a feed-forward network which
eine Eingabeschicht zur Eingabe der ersten Eingabevektoren umfasst,  comprises an input layer for inputting the first input vectors,
eine Mehrzahl von aufeinanderfolgenden versteckten Schichten zum Modellieren des Trainingssystems umfasst;  a plurality of consecutive hidden layers for modeling the training system;
ein erstes Trainingsmodul (430) zum Trainieren des tie¬ fen neuronalen Netzes anhand der Trainingsdaten, wobei die ersten Eingabevektoren jeweils über die Eingabeschicht an eine der versteckten Schichten als erste Verarbeitungsvektoren übertragen werden, die ersten Verarbeitungsvektoren jeweils zwischen den versteckten Schichten übertragen werden, jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation der übertragenen ersten Verarbeitungsvektoren durchgeführt werden, a first training module (430) for training the tie ¬ fen neural network using the training data, wherein the first input vectors respectively via the input layer to a hidden layers are transferred as the first processing vectors, the first processing vectors are respectively transmitted between the hidden layers, respectively, for a hidden layer a respective first data transformation of the transmitted first processing vectors are performed,
bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion der ersten Verarbeitungsvektoren jeweils für eine betreffende versteckte Schicht erfolgt,  in the respective first data transformation, a dimension reduction of the first processing vectors takes place in each case for a respective hidden layer,
die versteckten Schichten anhand der dimensionsreduzierten ersten Verarbeitungsvektoren und der jeweiligen zugehörigen ersten Ausgabevektoren konfiguriert werden.  the hidden layers are configured based on the dimensionally reduced first processing vectors and the respective associated first output vectors.
Analysevorrichtung zum rechnergestützten Analysieren mindestens eines zweiten Eingabevektors eines Zielsys¬ tems aufweisend: Analysis device for computer-aided analysis of at least one second input vector of a Zielsys ¬ tems comprising:
eine drittes Bereitstellungsmodul (510) zum Bereitstel¬ len des zweiten Eingabevektors für das Zielsystem; a third provisioning module (510) for providing Stel ¬ len of the second input vector for the target system;
ein viertes Bereitstellungsmodul (520) zum Bereitstellen eines trainierten tiefen neuronalen Netzes, wobei das tiefe neuronale Netz ein Feed-Forward-Netz ist, welches a fourth provisioning module (520) for providing a trained deep neural network, wherein the deep neural network is a feed-forward network which
eine Eingabeschicht zur Eingabe des zweiten Eingabevektors für das Zielsystem umfasst, eine Mehrzahl von aufeinanderfolgenden versteckten Schichten umfasst, die das Zielsystem modellieren, und  an input layer for inputting the second input vector for the target system, comprising a plurality of consecutive hidden layers modeling the target system, and
eine Ausgabeschicht zur Ausgabe eines zweiten Ausgabevektors für das Zielsystem umfasst, ein erstes Auswertemodul (530) zum Auswerten des zweiten an output layer for outputting a second output vector for the target system, a first evaluation module (530) for evaluating the second
Eingabevektors, wobei Input vector, where
der zweite Eingabevektor jeweils über die Eingabe¬ schicht an eine der versteckten Schichten als zweiter Verarbeitungsvektor übertragen wird, der zweite Verarbeitungsvektor jeweils zwischen den versteckten Schichten übertragen wird, the second input vector is transmitted in each case via the input ¬ layer to one of the hidden layers as second processing vector, the second vector processing each transmitted between the hidden layers,
jeweils für eine versteckte Schicht eine jeweilige erste Datentransformation des übertragenen zweiten Verarbeitungsvektors durchgeführt wird,  in each case for a hidden layer a respective first data transformation of the transmitted second processing vector is carried out,
bei der jeweiligen ersten Datentransformation eine Dimensionsreduktion des zweiten Verarbeitungsvektors jeweils für eine betreffende versteckte  at the respective first data transformation, a dimension reduction of the second processing vector respectively for a respective hidden one
Schicht erfolgt,  Layer takes place,
der zweite Ausgabevektor anhand eines dimensionsre¬ duzierten zweiten Verarbeitungsvektors ermittelt wird; the second output vector is determined using a dimensionsre ¬ duced second processing vector;
ein fünftes Bereitstellungsmodul (540) zum Bereitstellen des zweiten Ausgabevektors.  a fifth provisioning module (540) for providing the second output vector.
Computerprogrammprodukt mit Programmbefehlen zur Durch¬ führung des Verfahrens nach einem der Ansprüche 1 - 7 und/oder zur Durchführung des Verfahrens nach einem der Ansprüche 8 - 14. 18. Computerprogrammprodukt mit Programmbefehlen für ein Computer program product with program instructions for carrying out the method according to one of claims 1 to 7 and / or for carrying out the method according to one of claims 8 to 14. 18. Computer program product with program instructions for a
Erstellungsgerät, das mittels der Programmbefehle konfi¬ guriert wird, die Konfigurationsvorrichtung nach An- spruch 15 und/oder die Analysevorrichtung nach Anspruch 16 zu erstellen. Creation device which is confi ¬ guriert by means of the program commands, the configuration device after arrival Claim 15 and / or the analysis device according to claim 16 to create.
Bereitstellungsvorrichtung für das Computerprogrammprodukt nach Anspruch 17 oder 18, wobei die Bereitstel¬ lungsvorrichtung das Computerprogrammprodukt speichert und/oder bereitstellt. Providing apparatus for the computer program product of claim 17 or 18, wherein the READY ¬ averaging device storing the computer program product and / or provides.
PCT/EP2016/067627 2016-07-25 2016-07-25 Method and device for the computer-aided analysis of at least one second input vector of a target system WO2018019355A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/EP2016/067627 WO2018019355A1 (en) 2016-07-25 2016-07-25 Method and device for the computer-aided analysis of at least one second input vector of a target system
CN201680089552.1A CN109716359A (en) 2016-07-25 2016-07-25 For area of computer aided analyze the method and apparatus of at least one the second input vector of goal systems
EP16751207.8A EP3472759A1 (en) 2016-07-25 2016-07-25 Method and device for the computer-aided analysis of at least one second input vector of a target system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2016/067627 WO2018019355A1 (en) 2016-07-25 2016-07-25 Method and device for the computer-aided analysis of at least one second input vector of a target system

Publications (1)

Publication Number Publication Date
WO2018019355A1 true WO2018019355A1 (en) 2018-02-01

Family

ID=56684600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/067627 WO2018019355A1 (en) 2016-07-25 2016-07-25 Method and device for the computer-aided analysis of at least one second input vector of a target system

Country Status (3)

Country Link
EP (1) EP3472759A1 (en)
CN (1) CN109716359A (en)
WO (1) WO2018019355A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114004330A (en) * 2021-09-26 2022-02-01 苏州浪潮智能科技有限公司 Recommendation system and method based on eigenvalue completion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6477516B1 (en) * 2000-05-16 2002-11-05 Intevep, S.A. System and method for predicting parameter of hydrocarbon with spectroscopy and neural networks
DE102007001026A1 (en) * 2007-01-02 2008-07-03 Siemens Ag Technical system e.g. gas turbine, controlling and/or regulating method, involves executing learning and/or optimizing procedure based on concealed states in state space to control and/or regulate system
DE102011081197A1 (en) * 2011-08-18 2013-02-21 Siemens Aktiengesellschaft Method for the computer-aided modeling of a technical system
WO2015054666A1 (en) * 2013-10-10 2015-04-16 Board Of Regents, The University Of Texas System Systems and methods for quantitative analysis of histopathology images using multi-classifier ensemble schemes
EP3016033A1 (en) * 2014-10-29 2016-05-04 Ricoh Company, Ltd. Information processing system, information processing apparatus, and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6477516B1 (en) * 2000-05-16 2002-11-05 Intevep, S.A. System and method for predicting parameter of hydrocarbon with spectroscopy and neural networks
DE102007001026A1 (en) * 2007-01-02 2008-07-03 Siemens Ag Technical system e.g. gas turbine, controlling and/or regulating method, involves executing learning and/or optimizing procedure based on concealed states in state space to control and/or regulate system
DE102011081197A1 (en) * 2011-08-18 2013-02-21 Siemens Aktiengesellschaft Method for the computer-aided modeling of a technical system
WO2015054666A1 (en) * 2013-10-10 2015-04-16 Board Of Regents, The University Of Texas System Systems and methods for quantitative analysis of histopathology images using multi-classifier ensemble schemes
EP3016033A1 (en) * 2014-10-29 2016-05-04 Ricoh Company, Ltd. Information processing system, information processing apparatus, and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114004330A (en) * 2021-09-26 2022-02-01 苏州浪潮智能科技有限公司 Recommendation system and method based on eigenvalue completion
CN114004330B (en) * 2021-09-26 2023-11-14 苏州浪潮智能科技有限公司 Recommendation system and method based on feature value completion

Also Published As

Publication number Publication date
CN109716359A (en) 2019-05-03
EP3472759A1 (en) 2019-04-24

Similar Documents

Publication Publication Date Title
DE112018002822T5 (en) CLASSIFY NEURONAL NETWORKS
EP3540632B1 (en) Method for classifying tissue samples
DE102015212953A1 (en) Artificial neural networks for the classification of medical image datasets
DE102009030731A1 (en) Method for generating position data of an instrument
EP3282271A1 (en) Method for adjusting and/or changing a parameter value of at least one parameter of a magnetic resonance protocol for at least one magnetic resonance sequence
DE102014224656A1 (en) Method and device for segmenting a medical examination subject with quantitative MR imaging methods
DE112019005308T5 (en) WEIGHTED IMAGE GENERATING DEVICE, METHOD AND PROGRAM, DETERMINING DEVICE, METHOD AND PROGRAM, AREA EXTRACTION DEVICE, METHOD AND PROGRAM AND DETERMINATOR
DE102021124256A1 (en) MOBILE AI
EP3472759A1 (en) Method and device for the computer-aided analysis of at least one second input vector of a target system
DE102021204550A1 (en) Method for generating at least one data set for training a machine learning algorithm
EP2373246B1 (en) Method for producing image data for a display of an instrument and system
EP3605404A1 (en) Method and device for the training of a machining learning routine for controlling a technical system
EP1273007A1 (en) Method for determining a characteristic data record for a data signal
EP3126819B1 (en) Device and method for analysing a sample for the identification of prostate tumours
EP3701428B1 (en) Method and apparatus for improving the robustness of a machine learning system
WO2021160208A1 (en) Device and method for examining metal samples
DE112018004558T5 (en) MODELING GENETIC DISEASES
DE102023116141A1 (en) GENERATION OF TEST DATA USING MAIN COMPONENT ANALYSIS
DE102011075738A1 (en) Method for determining fault tolerant program for ablation of predetermined area of tissue of patient's body, involves providing a program for ablation of tissue region and choosing specific parameter values of desired ablation
DE102023116019A1 (en) OSCILLOSCOPE WITH A MAIN COMPONENT ANALYZER
DE10317717B4 (en) Method for the diagnosis of diseases using indicator substances
WO2004021245A2 (en) Method and arrangement and computer programme with programme code means and computer programme products for the analysis of neuronal activities in neuronal areas
DE102020106857A1 (en) MICROSCOPY SYSTEM AND METHOD FOR PROCESSING MICROSCOPE IMAGES
DE102023200400A1 (en) Method for training an autoencoder
DE102020125744A1 (en) BUS CAR DETECTION

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16751207

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016751207

Country of ref document: EP

Effective date: 20190118

NENP Non-entry into the national phase

Ref country code: DE