Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR CONTROLLING AND/OR REGULATING A TECHNICAL SYSTEM IN A COMPUTER-ASSISTED MANNER
Document Type and Number:
WIPO Patent Application WO/2014/040839
Kind Code:
A1
Abstract:
The invention relates to a method for controlling and/or regulating a technical system in a computer-assisted manner, in which actions (a) to be carried out on the technical system are first of all determined using an action selection rule (PO) which was determined through the learning of a data-driven model and, in particular, a neural network. On the basis of these actions (a), a numerical optimization method and, in particular, particle swarm optimization are then used to search for actions (a) which are better than the original actions according to an optimization criterion. If such actions (a) are found, the technical system is regulated or controlled on the basis of these new actions (a), that is to say the corresponding actions (a) are applied to the technical system in succession. The method according to the invention is suitable, in particular, for regulating or controlling a gas turbine, wherein the actions (a) are preferably optimized with respect to the criterion of low pollutant emission or low combustion chamber humming. In contrast to the pure use of a data-driven model, the method according to the invention enables better determination of actions to be carried out on the technical system by additionally using a numerical optimization method. Nevertheless, the method has a short computing time since the numerical optimization method preferably searches for better actions (a) locally. Consequently, the method according to the invention can also be used during real operation of the technical system.

Inventors:
HENTSCHEL ALEXANDER (DE)
UDLUFT STEFFEN (DE)
DUELL SIEGMUND (DE)
Application Number:
PCT/EP2013/067520
Publication Date:
March 20, 2014
Filing Date:
August 23, 2013
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SIEMENS AG (DE)
International Classes:
G05B13/02
Foreign References:
DE19904974A12000-08-10
DE102007017259A12008-10-16
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems, insbesondere einer Energieer- zeugungsanlage, bei dem das dynamische Verhalten des techni¬ schen Systems für mehrere Zeitpunkte jeweils durch einen Zu¬ stand (s) des technischen Systems und eine in diesem Zustand am technischen System durchgeführte Aktion (a) charakterisiert wird, wobei eine jeweilige Aktion (a) zu einem jeweili- gen Zeitpunkt in einen neuen Zustand (s) des technischen Sys¬ tems zum nächsten Zeitpunkt führt und eine Aktionssequenz ei¬ ne oder mehrere aufeinander folgend am technischen System durchzuführende Aktionen (a) darstellt, bei dem:

a) über eine Aktionsauswahlregel (PO) , welche durch Lernen eines datengetriebenen Modells (NN) basierend auf Trai¬ ningsdaten umfassend Datensätze aus bekannten Zuständen (s) und Aktionen (a) zu mehreren Zeitpunkten bestimmt wurde, für den Zustand (s) des technischen Systems zu ei¬ nem aktuellen Zeitpunkt (t) eine erste Aktionssequenz (AI) umfassend eine initiale Aktion zum aktuellen Zeit¬ punkt ermittelt wird, wobei die erste Aktionssequenz (AI) auf einem beim Lernen des datengetriebenen Modells (NN) berücksichtigten Optimierungskriterium für den Betrieb des technischen Systems basiert und ein Gütemaß (RE) in Bezug auf das Optimierungskriterium aufweist;

b) mittels eines numerischen Optimierungsverfahren (PSO) nach solchen zweiten Aktionssequenzen (A2) umfassend eine initiale Aktion (a) zum aktuellen Zeitpunkt gesucht wird, welche ein Gütemaß (RE) aufweisen, das höher als das Gü- temaß (RE) der ersten Aktionssequenz (AI) ist, wobei die

Suche bei einer Anzahl von Start-Aktionssequenzen beginnt, welche durch Variation einer Anzahl von initial bereitgestellten Aktionssequenzen umfassend die erste Aktionssequenz (AI) bestimmt werden, wobei Start-Aktionsse- quenzen (A2) mit einer geringen Variation basierend auf einem Prioritätskriterium bevorzugt werden;

c) im Falle, dass in Schritt b) eine oder mehrere zweite Ak¬ tionssequenzen (A2) gefunden werden, zumindest ein Teil der aufeinander folgenden Aktionen (a) der zweiten Aktionssequenz (A2) mit dem höchsten Gütemaß (RE) am technischen System durchgeführt wird und ansonsten zumindest ein Teil der aufeinander folgenden Aktionen (a) der ers- ten Aktionssequenz (AI) durchgeführt wird.

2. Verfahren nach Anspruch 1, bei dem das datengetriebene Modell (NN) , mit dem die Aktionsauswahlregel (PO) bestimmt wur¬ de, ein neuronales Netz, insbesondere ein rekurrentes neuro- nales Netz, umfasst und/oder auf Gaußschen Prozessen und/oder auf Regressionsbäumen und/oder auf einer Support Vector Regression beruht.

3. Verfahren nach Anspruch 1 oder 2, bei dem das numerische Optimierungsverfahren (PSO) ein nicht-konvexes heuristisches

Optimierungsverfahren und/oder ein gradientenfreies sto- chastisches Suchverfahren ist.

4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das numerische Optimierungsverfahren (PSO) eine Teilchen- schwarmoptimierung und/oder ein evolutionärer Algorithmus und/oder ein genetischer Algorithmus und/oder Simulated An- nealing ist. 5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Aktionsauswahlregel (PO) auf ein für das technische Sys¬ tem bestimmtes Simulationsmodell zugreift, mit dem aus einer Aktion (a) der ersten Aktionssequenz (AI), die für einen Zustand (s) zu einem Zeitpunkt durchgeführt wird, ein Folgezu- stand des technischen Systems zum nächsten Zeitpunkt ermit¬ telt wird, wobei für den Folgezustand die Aktionsauswahlregel (PO) die nächste Aktion der ersten Aktionssequenz (AI) festlegt . 6. Verfahren nach Anspruch 5, bei dem mit dem Simulationsmodell ferner aus den jeweiligen Aktionen (a) der zweiten Aktionssequenz (A2) Folgezustände des technischen Systems be¬ stimmt werden, wobei ein Bewertungsmaß für jeden Folgezustand der ersten und zweiten Aktionssequenz (AI, A2) ermittelt wird und das Gütemaß (RE) umso höher ist, je höher die Summe der Bewertungsmaße aller Folgezustände in der ersten bzw. zweiten Aktionssequenz (AI, A2) ist.

7. Verfahren nach Anspruch 5 oder 6, bei dem das Simulationsmodell über das Lernen eines neuronalen Netzes, insbesondere eines rekurrenten neuronalen Netzes, bestimmt wurde. 8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Größe einer Variation basierend auf einer Metrik für jede Aktion (a) der Aktionssequenz oder auf einer Metrik für die gesamte Aktionssequenz definiert ist und/oder das Prioritäts¬ kriterium auf ein Wahrscheinlichkeitskriterium oder Schwell- wertkriterium ist.

9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Schritte a) bis c) in vorbestimmen Zeitabständen wiederholt werden und dabei die in Schritt c) zumindest teilweise ausgeführten ersten oder zweiten Aktionssequenzen (AI, A2) in einer Datenbank (DB) gespeichert werden, wobei in Schritt b) als initial bereitgestellte Aktionssequenzen die erste Akti¬ onssequenz (AI) sowie diejenigen Aktionssequenzen (A) aus der Datenbank (DB) verwendet werden, deren initiale Aktionen (a) in Zuständen (s) des technischen Systems ausgeführt wurden, welche gemäß einer Metrik im Raum der Zustände (s) einen Ab¬ stand von dem Zustand des technischen System zum aktuellen Zeitpunkt (t) aufweisen, der kleiner oder kleiner gleich einem vorbestimmten Schwellwert ist.

10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bei Vorliegen von einem oder mehreren Kriterien ein bereits abgeschlossenes numerisches Optimierungsverfahren (PSO) fortgesetzt wird, wobei bei der Fortsetzung nach zweiten Ak- tionssequenzen (A2) mit einem höheren Gütemaß als die erste Aktionssequenz (AI) gesucht wird, ohne dass das Prioritäts¬ kriterium bei der Bestimmung der Start-Aktionssequenzen berücksichtigt wird.

11. Verfahren nach Anspruch 10, bei dem das oder die Kriterien das Kriterium umfassen, dass eine für das Verfahren zur Verfügung stehende Rechenkapazität eine vorbestimme Schwelle überschreitet.

12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Lernen des datengetriebene Modells (NN) zu vorbe¬ stimmten Zeitpunkten basierend auf den Trainingsdaten sowie weiteren Trainingsdaten fortgesetzt wird, wobei die weiteren Trainingsdaten Datensätze umfassen, welche jeweils eine in Schritt c) zumindest teilweise durchgeführte Aktionssequenz (AI, A2) sowie zumindest den Zustand (s) des technischen Sys¬ tems beinhalten, in dem die Aktionssequenz (AI, A2) begonnen wurde.

13. Verfahren nach Anspruch 12, bei dem immer dann, wenn beim Fortsetzen des Lernens ein Datensatz aus den weiteren Trainingsdaten verwendet wird, anstatt des Optimierungskriteriums für den Betrieb des technischen Systems das Optimierungskriterium einer möglichst geringen Abweichung zwischen der über das datengetriebene Modell (NN) bestimmten Aktionssequenz und der Aktionssequenz gemäß dem Datensatz aus den weiteren Trainingsdaten berücksichtigt wird.

14. Verfahren nach einem der vorhergehenden Ansprüche, bei dem eine elektrische Energieerzeugungsanlage umfassend eine Gasturbine geregelt und/oder gesteuert wird. 15. Verfahren nach Anspruch 14, bei dem ein Zustand der Gasturbine eine oder mehrere der nachfolgenden Zustandsvariablen umfasst, wobei eine Aktion vorzugsweise eine Veränderung von einer oder mehreren der nachfolgenden Zustandsvariablen betrifft:

- der Verdichterwirkungsgrad der Gasturbine;

der Turbinenwirkungsgrad der Gasturbine;

die geregelte Abgastemperatur der Gasturbine; die Stellung einer oder mehrerer Leitschaufeln, insbesondere im Verdichter der Gasturbine;

die Rotationsgeschwindigkeit der Gasturbine;

eine oder mehrere Drücke und/oder Temperaturen in der Gasturbine, insbesondere die Eintrittstemperatur

und/oder der Eintrittsdruck und/oder die Austrittstemperatur und/oder der Austrittsdruck im Verdichter und/oder in der Turbine;

die Temperatur in der Umgebung, in der die Gasturbine betrieben wird;

die Luftfeuchtigkeit in der Umgebung, in der die Gasturbine betrieben wird;

den Luftdruck in der Umgebung, in der die Gasturbine betrieben wird;

ein oder mehrere Massen- und/oder Volumenströme;

ein oder mehrere Parameter von einem Kühl- und/oder Hilfssystem und/oder Schmieröl- und/oder Lagersystemen in der Gasturbine, insbesondere die Stellung von einem oder mehreren Ventilen zur Zufuhr von Kühlluft;

die Leistung der Gasturbine, insbesondere ein prozentua¬ ler Leistungswert;

die Brennstoffgüte der Gasturbine;

die Schadstoffemission der Gasturbine, insbesondere die Emission von Stickoxiden und/oder Kohlenmonoxid;

die Temperatur einer oder mehrerer Turbinenschaufeln der Gasturbine ;

die Verbrennungsdynamik der Brennkammer der Gasturbine; ein oder mehrere Parameter betreffend die Zuführung von

Gas zu der Brennkammer der Gasturbine;

die Menge an der Gasturbine zugeführtem Gas;

Lager- und/oder Gehäuseschwingungen in der Gasturbine.

16. Verfahren nach Anspruch 14 oder 15, bei dem das Optimierungskriterium für den Betrieb des technischen Systems eine möglichst geringe Schadstoffemission der Gasturbine und/oder eine möglichst geringe Dynamik der Brennkammer der Gasturbin umfasst .

17. Vorrichtung zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems, insbesondere einer elektri sehen Energieerzeugungsanlage, wobei die Vorrichtung eine Rechnereinheit umfasst, mit der ein Verfahren nach einem der vorhergehenden Ansprüche durchführbar ist.

18. Technisches System, umfassend die Vorrichtung gemäß An¬ spruch 17.

19. Computerprogrammprodukt mit einem auf einem maschinenies baren Träger gespeicherten Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 16, wenn der Pro¬ grammcode auf einem Rechner ausgeführt wird.

Description:
Beschreibung

Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems

Die Erfindung betrifft ein Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems, insbesondere eine Energieerzeugungsanlage. Bei der Steuerung bzw. Regelung von technischen Systemen ist es oftmals wünschenswert, den Betrieb des technischen Systems über die Durchführung von entsprechenden Aktionen derart zu beeinflussen, dass das Verhalten des technischen Systems in Bezug auf bestimmte Kriterien optimiert ist. Beispielsweise ist es bei dem Betrieb einer Gasturbine sinnvoll, die durch die Turbine erzeugten Abgasemissionen zu reduzieren bzw. die Verbrennungsdynamik der Brennkammer der Gasturbine (auch als Brennkammerbrummen bezeichnet) möglichst gering zu halten. Dabei kann z.B. auf Parameter betreffend die Zuführung von Gas zur Brennkammer der Gasturbine Einfluss genommen werden.

Aus dem Stand der Technik sind rechnergestützte Verfahren be ¬ kannt, mit denen eine Aktionsauswahlregel bestimmt wird, wo ¬ nach für entsprechende aufeinander folgende Zustände des technischen Systems, welche durch geeignete Zustandsvariablen des Systems charakterisiert sind, Aktionen ermittelt werden, welche im Hinblick auf ein Optimierungskriterium, wie z.B. die oben erwähnte geringe Schadstoffemission bzw. ein geringes Brennkammerbrummen, optimal sind. In den Dokumenten [1] und [2] wird die Bestimmung einer Aktionsauswahlregel basie ¬ rend auf dem Lernen eines rekurrenten neuronalen Netzes mit Trainingsdaten aus bekannten Zuständen und Aktionen beschrieben. Gemäß der Aktionsauswahlregel wird eine Aktionssequenz für einen aktuellen Zustand des technischen Systems unter Be- rücksichtigung von vergangenen Zuständen in Abhängigkeit von einem Optimalitätskriterium ausgegeben. Die Aktionssequenz kann im Realbetrieb des technischen Systems in kurzer Rechenzeit bestimmt werden. Es ist dabei jedoch nicht immer sicher- gestellt, dass die gemäß der Aktionsauswahlregel bestimmten Aktionen optimal im Sinne des Optimalitätskriteriums sind. Abweichungen können insbesondere dann auftreten, wenn die Zustände des technischen Systems, für welche die Aktionssequenz bestimmt wird, in Betriebsbereichen liegen, welche weit ent ¬ fernt von den Trainingsdaten sind.

Aufgabe der Erfindung ist es deshalb, ein Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems zu schaffen, welches schnell und genau die am techni ¬ schen System gemäß einem Optimierungskriterium durchzuführenden Aktionen bestimmt.

Diese Aufgabe wird durch die unabhängigen Patentansprüche ge- löst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.

Das erfindungsgemäße Verfahren dient zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems. Das technische System ist dabei insbesondere eine Energieerzeu ¬ gungsanlage und in einer besonders bevorzugten Ausführungs ¬ form eine Gasturbine, wie weiter unten näher beschrieben ist. Gegebenenfalls kann das technische System jedoch auch eine Energieerzeugungsanlage in der Form einer regenerativen Ener- gieerzeugungsanlage, wie z.B. eine Windturbine, sein. Das dy ¬ namische Verhalten des technischen Systems wird im erfindungsgemäßen Verfahren für mehrere Zeitpunkte jeweils durch einen Zustand des technischen Systems und eine in diesem Zu ¬ stand am technischen System durchgeführte Aktion charakteri- siert, wobei eine jeweilige Aktion zu einem jeweiligen Zeit ¬ punkt in einen neuen Zustand des technischen Systems zum nächsten Zeitpunkt führt. Eine Aktionssequenz stellt dabei eine oder mehrere aufeinander folgend am technischen System durchzuführende Aktionen dar. Ein Zustand des technischen Systems umfasst eine und vorzugsweise mehrere Zustandsvariab- len, welche Betriebszustände des technischen Systems bzw. den Betrieb des technischen Systems beeinflussende Größen sind. Demgegenüber sind Aktionen die Veränderung von einer oder mehreren Aktionsvariablen, wobei die Aktionsvariablen gegebenenfalls auch Zustandsvariablen darstellen können, welche im Rahmen der Regelung bzw. der Steuerung des technischen Systems verändert werden können.

In einem Schritt a) des erfindungsgemäßen Verfahrens wird über eine Aktionsauswahlregel, welche durch Lernen eines da ¬ tengetriebenen Modells basierend auf Trainingsdaten umfassend Datensätze aus bekannten Zuständen und Aktionen zu mehreren Zeitpunkten bestimmt wurde, für den Zustand des technischen Systems zu einem aktuellen Zeitpunkt (d.h. zu dem Zeitpunkt, zu dem ein Steuer- bzw. Regeleingriff erfolgen soll) eine erste Aktionssequenz aus einer oder mehreren am technischen System aufeinander folgend durchzuführenden Aktionen umfas- send eine initiale Aktion zum aktuellen Zeitpunkt ermittelt, wobei die erste Aktionssequenz auf einem beim Lernen des datengetriebenen Modells berücksichtigten Optimierungskriterium für den Betrieb des technischen Systems basiert und ein Güte ¬ maß in Bezug auf das Optimierungskriterium aufweist. Je höher das Gütemaß ist, desto besser ist das entsprechende Optimie ¬ rungskriterium erfüllt. Bei der Ermittlung der ersten Aktionssequenz werden in einer bevorzugten Ausführungsform der Zustand des technischen Systems zum aktuellen Zeitpunkt sowie eine Historie von weiteren vergangenen Zuständen berücksich- tigt.

In einem Schritt b) wird anschließend mittels eines numeri ¬ schen Optimierungsverfahrens nach solchen zweiten Aktionsse ¬ quenzen aus einer oder mehreren am technischen System aufein- ander folgend durchzuführenden Aktionen umfassend eine initiale Aktion zum aktuellen Zeitpunkt gesucht, welche ein Güte ¬ maß aufweisen, das höher als das Gütemaß der erste Aktionsse ¬ quenz ist. Dabei wird die Suche bei einer Anzahl von Start- Aktionssequenzen (d.h. zumindest einer Start-Aktionssequenz) begonnen, welche durch Variation einer Anzahl von initial bereitgestellten Aktionssequenzen umfassend die erste Aktionssequenz bestimmt werden. Hierbei werden Start-Aktionsse ¬ quenzen mit einer geringen Variation gegenüber einer entspre- chenden initial bereitgestellten Aktionssequenz basierend auf einem Prioritätskriterium bevorzugt. Die Start-Aktionssequenzen werden anschließend im weiteren Verlauf gemäß der Vorschrift des numerischen Optimierungsverfahrens iterativ ver- ändert, um hierdurch zweite Aktionssequenzen mit einem höheren Gütemaß aufzufinden.

Gemäß Schritt b) wird somit ein numerisches Optimierungsver ¬ fahren bevorzugt in einem lokalen Bereich um die erste Akti- onssequenz bzw. weiterer zur Initialisierung verwendeter Aktionssequenzen begonnen. Die Größe der Variation, d.h. die Unterschiedlichkeit zwischen einer initial bereitgestellten Aktionssequenz und der daraus durch Variation erzeugten

Start-Aktionssequenz, kann in geeigneter Weise z.B. basierend auf einer Metrik für jede Aktion der Aktionssequenz definiert sein. In diesem Fall ist die Variation einer Aktion umso größer, je größer der Abstand gemäß der Metrik zwischen dieser Aktion in der variierten Aktionssequenz von der entsprechende Aktion in der nicht-variierten Aktionssequenz ist. Ebenso kann im Raum der Aktionssequenzen eine geeignete Metrik definiert sein, so dass die Gesamtvariation der Aktionssequenz über den Abstand zwischen der variierten Aktionssequenz und der nicht-variierten Aktionssequenz gemäß der Metrik bestimmt wird. Zudem kann das Prioritätskriterium unterschiedlich aus- gestaltet sein. Zum Beispiel kann das Prioritätskriterium als Wahrscheinlichkeitskriterium festgelegt sein. Das heißt, gemäß einer oder mehreren Wahrscheinlichkeitsfunktionen steigt die Wahrscheinlichkeit, dass eine variierte Aktionssequenz als Start-Aktionssequenz in dem numerischen Optimierungsver- fahren verwendet wird, je geringer die Variation dieser Aktionssequenz verglichen mit der zugrundeliegenden initial bereitgestellten Aktionssequenz ist. Ebenso kann das Prioritätskriterium auf einem harten Schwellwertkriterium beruhen, wobei solche Aktionssequenzen nicht als Start-Aktionssequen- zen des numerischen Optimierungsverfahrens zugelassen sind, deren Variation eine vorbestimmte Schwelle überschreitet. Da ¬ bei kann z.B. für jede Aktion der Aktionssequenz ein entsprechender Schwellwert festgelegt sein, wobei die Variation der jeweiligen Aktion den Schwellwert nicht überschreiten darf. Falls die Variation über eine Metrik für die gesamte Aktions ¬ sequenz beschrieben wird, kann auch ein einziger Schwellwert für die gesamte Sequenz festgelegt sein.

In einem Schritt c) des erfindungsgemäßen Verfahrens wird schließlich im Falle, dass in Schritt b) eine oder mehrere zweite Aktionssequenzen mit einem höheren Gütemaß gefunden werden, zumindest ein Teil der aufeinander folgenden Aktionen der zweiten Aktionssequenz mit dem höchsten Gütemaß am technischen System durchgeführt. Werden keine zweiten Aktionsse ¬ quenzen mit einem höheren Gütemaß gefunden, wird zumindest ein Teil der aufeinander folgenden Aktionen der ersten Aktionssequenz durchgeführt. Nach der Durchführung des entspre- chenden Teils der Aktionen der ersten bzw. zweiten Aktionssequenzen können dann wieder die Schritte a) bis c) des erfindungsgemäßen Verfahrens zur Bestimmung eines neuen Steuerbzw. Regeleingriffs durchgeführt werden. Das erfindungsgemäße Verfahren weist den Vorteil auf, dass eine mit einem datengetriebenen Modell gelernte Aktionsaus ¬ wahlregel mittels eines numerischen Optimierungsverfahrens verbessert werden kann, wobei durch eine priorisierte lokale Suche (Optimierung) nach (zweiten) Aktionssequenzen sicherge- stellt ist, dass Aktionssequenzen mit einem höheren Gütemaß als das Gütemaß der ersten Aktionssequenz schnell berechnet werden können und das Verfahren somit im Realbetrieb des technischen Systems eingesetzt werden kann. Das in Schritt a) des erfindungsgemäßen Verfahrens verwendete gelernte datengetriebene Modell umfasst in einer bevorzugten Ausführungsform ein neuronales Netz und insbesondere ein re ¬ kurrentes neuronales Netz. In einer besonders bevorzugten Va ¬ riante wird das in der Druckschrift [1] bzw. in der Druck- schrift [2] beschriebene neuronale Netz verwendet, bei dem ein rekurrentes neuronales Netz mit einem Feed-Forward-Netz zum Bestimmen einer Aktionsauswahlregel kombiniert wird. Das heißt, die Aktionsauswahlregel gemäß Schritt a) wurde in die- sem Fall mit dem Verfahren aus der Druckschrift [1] bzw. [2] bestimmt. Der gesamte Offenbarungsgehalt dieser Druckschrif ¬ ten wird durch Verweis zum Inhalt der vorliegenden Anmeldung gemacht. Anstatt eines neuronalen Netzes können in abgewan ¬ delten Ausführungsformen auch datengetriebene Modelle einge ¬ setzt werden, welche auf Gaußschen Prozessen und/oder Regressionsbäumen und/oder auf einer Support Vector Regression beruhen. Solche Modelle sind hinlänglich aus dem Stand der Technik bekannt und werden deshalb nicht näher erläutert.

Das in Schritt b) des erfindungsgemäßen Verfahrens verwendet numerische Optimierungsverfahren ist in einer besonders bevorzugten Ausführungsform ein nicht-konvexes heuristisches Optimierungsverfahren bzw. ein gradientenfreies stochasti- sches Suchverfahren. Entsprechende Verfahren sind aus dem Stand der Technik bekannt. In einer besonders bevorzugten Ausführungsform wird als numerisches Optimierungsverfahren eine Teilchenschwarmoptimierung (englisch: Particle Swarm Op timization) und/oder ein evolutionärer Algorithmus und/oder ein generischer Algorithmus und/oder Simulated Annealing ein gesetzt. Auch diese Verfahren sind aus dem Stand der Technik bekannt. Eine nähere Beschreibung der Teilchenschwarmoptimie rung findet sich in den Druckschriften [3] bis [6], deren ge samter Offenbarungsgehalt zum Inhalt der vorliegenden Anmel ¬ dung gemacht wird. Eine Beschreibung von generischen Algorithmen findet sich in der Druckschrift [7], deren gesamter Offenbarungsgehalt ebenfalls zum Inhalt der vorliegenden An ¬ meldung gemacht wird.

In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens greift die in Schritt a) verwendete Aktionsauswahlregel auf ein für das technische System bestimmtes Simulationsmo ¬ dell zu, mit dem aus einer Aktion der ersten Aktionssequenz, die für einen Zustand zu einem Zeitpunkt durchgeführt wird, ein Folgezustand des technischen Systems zum nächsten Zeit ¬ punkt ermittelt wird, wobei für den Folgezustand die Aktions ¬ auswahlregel die nächste Aktion der ersten Aktionssequenz festlegt. Das Simulationsmodell wird vorzugsweise auch beim Lernen der Aktionsauswahlregel berücksichtigt. Insbesondere kann das Simulationsmodell wiederum über das Lernen eines neuronalen Netzes bzw. eines rekurrenten neuronalen Netzes bestimmt worden sein. Das zum Lernen des Simulationsmodells verwendete neuronale Netz kann dabei auch im Rahmen des Ler ¬ nens der Aktionsauswahlregel eingesetzt werden, wie dies in den Dokumenten [1] und [2] der Fall ist. Dort wird zunächst ein Simulationsmodell des technischen Systems basierend auf einem rekurrenten neuronalen Netz gelernt, und anschließend erfolgt das Lernen der Aktionsauswahlregel derart, dass das gelernte rekurrente neuronale Netz mit einem Feed-Forward- Netz kombiniert wird.

In einer weiteren bevorzugten Ausgestaltung des erfindungsge- mäßen Verfahrens werden mit dem Simulationsmodell ferner aus den jeweiligen Aktionen der zweiten Aktionssequenz Folgezustände des technischen Systems bestimmt, wobei ein Bewer ¬ tungsmaß für jeden Folgezustand der ersten und zweiten Akti ¬ onssequenz ermittelt wird und das Gütemaß umso höher ist, je höher die Summe der Bewertungsmaße aller Folgezustände in der ersten bzw. zweiten Aktionssequenz ist. In diesem Fall wird die Güte einer Aktionssequenz basierend auf zukünftig durch ¬ zuführenden Aktionen der Aktionssequenz bestimmt. In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens werden die Schritte a) bis c) in vorbestimmten Zeitab ¬ ständen wiederholt und dabei die in Schritt c) zumindest teilweise ausgeführten ersten und zweiten Aktionssequenzen in einer Datenbank gespeichert, wobei in Schritt b) als initial bereitgestellte Aktionssequenzen die erste Aktionssequenz sowie diejenigen Aktionssequenzen aus der Datenbank verwendet werden, deren initiale Aktionen in Zuständen des technischen Systems ausgeführt wurden, welche gemäß einer Metrik im Raum der Zustände einen Abstand von dem Zustand des technischen Systems zum aktuellen Zeitpunkt aufweisen, der kleiner oder kleiner gleich einem vorbestimmten Schwellwert ist. Auf diese Weise kann durch Berücksichtigung von zuvor ermittelten Aktionssequenzen das numerische Optimierungsverfahren beschleu- nigt werden bzw. schneller zu einer verbesserten Aktion führen .

In einer weiteren Ausgestaltung des erfindungsgemäßen Verfah- rens wird bei Vorliegen von einem oder mehreren Kriterien ein bereits abgeschlossenes numerisches Optimierungsverfahren fortgesetzt, wobei bei der Fortsetzung nach zweiten Aktions ¬ sequenzen mit einem höheren Gütemaß als die erste Aktionsse ¬ quenz gesucht wird, ohne dass das Prioritätskriterium bei der Bestimmung der Start-Aktionssequenzen berücksichtigt wird.

Das oder die Kriterien umfassen dabei insbesondere das Krite ¬ rium, dass eine für das Verfahren zur Verfügung stehende Rechenkapazität eine vorbestimmte Schwelle überschreitet. Bei ausreichender Rechenkapazität kann somit eine Verbesserung des numerischen Optimierungsverfahrens erreicht werden. Wenn bei der Fortsetzung des numerischen Optimierungsverfahrens eine nochmals bessere zweite Aktionssequenz (d.h. eine zweite Aktionssequenz mit nochmals höherem Gütemaß) gefunden wird, wird diese vorzugsweise in der oben beschriebenen Datenbank gespeichert, wobei gegebenenfalls die zuvor über das Optimie ¬ rungsverfahren gefundene zweite Aktionssequenz überschrieben wird .

In einer weiteren Ausgestaltung des erfindungsgemäßen Verfah- rens wird das Lernen des datengetriebenen Modells zu vorbe ¬ stimmten Zeitpunkten basierend auf den Trainingsdaten sowie weiteren Trainingsdaten fortgesetzt, wobei die weiteren Trainingsdaten Datensätze umfassen, welche jeweils eine in

Schritt c) zumindest teilweise durchgeführte Aktionssequenz sowie zumindest den Zustand des technischen Systems beinhal ¬ ten, in dem diese Aktionssequenz begonnen wurde. Vorzugsweise umfasst ein Datensatz dabei neben dem Zustand, zu dem die Aktionssequenz begonnen wurde, eine Historie von aufeinander folgenden Zuständen, die vor diesem Zustand liegen.

In einer bevorzugten Variante der soeben beschriebenen Ausführungsform wird immer dann, wenn beim Fortsetzen des Lernens ein Datensatz aus den weiteren Trainingsdaten verwendet wird, anstatt des Optimierungskriteriums für den Betrieb des technischen Systems das Optimierungskriterium einer möglichst geringen Abweichungen zwischen der über das datengetriebene Modell bestimmten Aktionssequenz und der Aktionssequenz gemäß dem Datensatz aus den weiteren Trainingsdaten berücksichtigt.

Mit dem erfindungsgemäßen Verfahren wird in einer besonders bevorzugten Variante eine elektrische Energieerzeugungsanlage umfassend eine Gasturbine geregelt bzw. gesteuert. Ein Zu ¬ stand der Gasturbine umfasst dabei vorzugsweise eine oder mehrere der nachfolgenden Zustandsvariablen, wobei eine Aktion insbesondere eine Veränderung von einer oder mehreren der nachfolgenden Zustandsvariablen betrifft:

der Verdichterwirkungsgrad der Gasturbine;

der Turbinenwirkungsgrad der Gasturbine;

die geregelte Abgastemperatur der Gasturbine;

die Stellung einer oder mehrerer Leitschaufeln, insbesondere im Verdichter der Gasturbine;

die Rotationsgeschwindigkeit der Gasturbine;

eine oder mehrere Drücke und/oder Temperaturen in der Gasturbine, insbesondere die Eintrittstemperatur

und/oder der Eintrittsdruck und/oder die Austrittstemperatur und/oder der Austrittsdruck im Verdichter und/oder in der Turbine;

die Temperatur in der Umgebung, in der die Gasturbine betrieben wird;

die Luftfeuchtigkeit in der Umgebung, in der die Gasturbine betrieben wird;

den Luftdruck in der Umgebung, in der die Gasturbine betrieben wird;

ein oder mehrere Massen- und/oder Volumenströme;

ein oder mehrere Parameter von einem Kühl- und/oder Hilfssystem und/oder Schmieröl- und/oder Lagersystemen in der Gasturbine, insbesondere die Stellung von einem oder mehreren Ventilen zur Zufuhr von Kühlluft;

die Leistung der Gasturbine, insbesondere ein prozentua ¬ ler Leistungswert;

die Brennstoffgüte der Gasturbine; die Schadstoffemission der Gasturbine, insbesondere die Emission von Stickoxiden und/oder Kohlenmonoxid;

die Temperatur einer oder mehrerer Turbinenschaufeln der Gasturbine ;

- die Verbrennungsdynamik der Brennkammer der Gasturbine; ein oder mehrere Parameter betreffend die Zuführung von

Gas zu der Brennkammer der Gasturbine;

die Menge an der Gasturbine zugeführtem Gas;

Lager- und/oder Gehäuseschwingungen in der Gasturbine.

Im Falle einer Gasturbine eignet sich als Optimierungskrite ¬ rium für den Betrieb des technischen Systems insbesondere ei ¬ ne möglichst geringe Schadstoffemission der Gasturbine und/oder eine möglichst geringe Dynamik der Brennkammer der Gasturbine.

Neben dem oben beschriebenen Verfahren betrifft die Erfindung ferner eine Vorrichtung zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems, insbesondere ei- ner elektrischen Energieerzeugungsanlage, wobei die Vorrich ¬ tung eine Rechnereinheit umfasst, mit der das erfindungsgemä ¬ ße Verfahren bzw. eine oder mehrere Varianten des erfindungs ¬ gemäßen Verfahrens durchführbar sind. Die Erfindung betrifft darüber hinaus ein technisches System, insbesondere eine Energieerzeugungsanlage und vorzugsweise eine Gasturbine, welches die soeben beschriebe Vorrichtung beinhaltet . Darüber hinaus umfasst die Erfindung ein Computerprogrammpro ¬ dukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens bzw. einer oder mehrerer bevorzugter Varianten des erfindungsgemäßen Verfahrens, wenn der Programmcode auf einem Rechner ausgeführt wird.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben. Es zeigen:

Fig. 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Verfahrens; und

Fig. 2 eine schematische Darstellung, welche das Fortset ¬ zen des Lernens eines rekurrenten neuronalen Netzes gemäß einer Ausführungsform des erfindungsgemäßen

Verfahrens verdeutlicht.

Das erfindungsgemäße Verfahren wird nachfolgend am Beispiel eines technischen Systems in der Form einer Gasturbine be ¬ schrieben. Ziel des Verfahrens ist es dabei, in einem ent- sprechenden Zustand der Gasturbine eine Sequenz von optima ¬ len, in diesem Zustand und in Folgezuständen auszuführenden Aktionen zu bestimmen. Ein Zustand ist dabei ein Vektor aus einer Vielzahl von Zustandsvariablen und kann die oben erläuterten Variablen umfassen. Eine Aktion betrifft die Verände- rung einer oder mehrerer Zustandsvariablen, die in der Gasturbine verstellt werden können. In dem erfindungsgemäßen Verfahren haben sich z.B. Parameter betreffend die Zuführung von Gas in die Brennkammer der Gasturbine als Zustandsvariab ¬ len für praktikabel erwiesen. Entsprechende Aktionen betref- fen dabei die Veränderungen dieser Parameter. Die Parameter umfassen insbesondere entsprechende Brennstoffanteile, die an verschiedenen Positionen in die Brennkammer der Gasturbine eingespritzt werden. Diese Anteile können entsprechend verän ¬ dert werden, wodurch Aktionen generiert werden. In dieser Va- riante der Erfindung stellen optimale Aktionen solche Aktio ¬ nen dar, welche langfristig zu einem geringen Brummen in der Brennkammer führen. Gegebenenfalls können die Aktionen auch im Hinblick auf andere bzw. weitere Optimierungskriterien bestimmt werden, wie z.B. möglichst geringe Emissionen an

Schadstoffen.

Im Rahmen der hier erläuterten Ausführungsform wird ausgehend von einem aktuellen Zustand des technischen Systems unter Be- rücksichtigung von einer Anzahl von vergangenen Zuständen in geeigneter Weise eine Aktionssequenz von im aktuellen und mehreren zukünftigen Zuständen durchzuführenden Aktionen festgelegt. Dabei wird eine Aktionsauswahlregel, die mit ei ¬ nem an sich bekannten Verfahren über das Lernen eines neuronalen Netzes bestimmt wurde, mit einem numerischen Optimie ¬ rungsverfahren in der Form einer Teilchenschwarmoptimierung kombiniert, so dass eine verbesserte Aktionsauswahlregel er ¬ halten wird, mit der im Betrieb des technischen Systems opti ¬ male Aktionen z.B. im Hinblick auf geringes Brennkammerbrummen bestimmt werden können.

Ausgangspunkt des nachfolgend anhand von Fig. 1 erläuterten Verfahrens ist eine Aktionsauswahlregel PO, welche vorab be ¬ reits mit einem an sich bekannten Verfahren über das Lernen eines neuronalen Netzes NN bestimmt wurde. In einer besonders bevorzugten Ausführungsform wurde die Aktionsauswahlregel ba ¬ sierend auf dem in der Druckschrift [1] beschriebenen rekurrenten neuronalen Netz ermittelt. Zur Bestimmung der Aktionsauswahlregel wurde gemäß dieser Druckschrift ein rekurrentes neuronales Netz, welches zunächst über entsprechende Trai ¬ ningsdaten zur Repräsentation des dynamischen Verhaltens des technischen Systems gelernt wurde, mit einem Feed-Forward- Netz kombiniert, um hierdurch die Aktionsauswahlregel abzu ¬ leiten. Bei der Bestimmung der Aktionsauswahlregel wurde ein entsprechendes Optimierungskriterium berücksichtigt, mit dem die Güte RE (RE = Reward) einer über die Aktionsauswahlregel bestimmten Aktionssequenz festgelegt wird. Die Güte RE stellt dabei eine Summe entsprechender Bewertungsmaße dar, welche für jeden Zustand bestimmt werden, der im Rahmen der Durchführung der Aktionssequenz im technischen System eingenommen wird. Je höher das Bewertungsmaß, desto besser ist die Bewer ¬ tung des entsprechenden Zustands. Das Optimierungskriterium ist dabei eine möglichst große Summe der Bewertungsmaße der entsprechenden Aktionssequenz. Mit anderen Worten stellt das Gütemaß die Summe der Bewertungsmaße dar, welche möglichst groß werden soll. Mit der über das neuronale Netz NN gelernten Aktionsauswahlregel PO wird ausgehend von einem aktuellen Zeitpunkt eine erste Aktionssequenz AI aus einer aktuellen Aktion und zukünftig durchzuführenden Aktionen bestimmt. Dies wird anhand des Diagramms DI in Fig. 1 verdeutlicht. Entlang der Abszisse des Diagramms sind dabei die zu aufeinander folgenden Zeit ¬ punkten eingenommenen Zustände s des technischen Systems verdeutlicht, wobei der aktuelle Zeitpunkt der Regelung bzw. Steuerung durch t bezeichnet ist. Die Ordinate gibt die Akti- onen a wieder. Durch die Linie AI wird die erste Aktionsse ¬ quenz verdeutlicht, die durch das neuronale Netz NN bestimmt wurde. Diese Linie besteht aus einer Vielzahl von einzelnen Aktionen zum aktuellen und zu zukünftigen Zeitpunkten, wie beispielhaft durch drei Punkte P angedeutet ist. In gleicher Weise setzen sich auch die weiter unten erläuterten Linien A und A2 zusammen, welche ebenfalls Aktionssequenzen darstellen. Je nach verwendeten Trainingsdaten für das neuronale Netz ist dabei nicht immer sichergestellt, dass die über das Netz ausgegebene Aktionssequenz AI auch die tatsächlich beste Aktionssequenz im Sinne des Optimierungskriteriums ist. Dem ¬ zufolge wird in der Ausführungsform der Fig. 1 die Aktionssequenz AI mit einem numerischen Optimierungsverfahren in der Form einer Teilchenschwarmoptimierung PSO (PSO = Particle Small Optimization) weiterverarbeitet, was durch den Pfeil PI angedeutet ist.

Verfahren zur Teilchenschwarmoptimierung sind an sich aus dem Stand der Technik bekannt, wie durch die bereits eingangs er ¬ wähnten Druckschriften [3] bis [6] belegt ist. Das schwarmba- sierte Optimierungsverfahren PSO sucht dabei ausgehend von der ersten Aktionssequenz AI nach zweiten Aktionssequenzen A2, welche zu einer höheren Güte RE führen. Werden solche zweiten Aktionssequenzen gefunden, wird diejenige zweite Aktionssequenz mit der höchsten Güte in einer Datenbank DB ge- speichert, wie durch den Pfeil P3 angedeutet ist. Falls nicht, wird die erste Aktionssequenz in der Datenbank DB gespeichert. Die Aktionssequenzen der Datenbank DB sind in Fig. 1 mit A bezeichnet. Schließlich wird am technischen System die zweite Aktionssequenz mit der höchsten Güte bzw. die erste Aktionssequenz ausgeführt, sofern keine zweite Aktionsse ¬ quenz gefunden wird. Die Teilchenschwarmoptimierung PSO wird unter Verwendung der ersten Aktionssequenz AI Ferner wird in der

Datenbank DB nach weiteren, zur Initialisierung verwendbaren Aktionssequenzen A gesucht, was durch den Pfeil P2 angedeutet ist. Eine Aktionssequenz aus der Datenbank DB wird dann zur Initialisierung des schwarmbasierten Optimierungsverfahrens verwendet, wenn der Zustand des technischen Systems, ausge ¬ hend von dem die initiale Aktion der Aktionssequenz aus der Datenbank durchgeführt wurde, ähnlich zu dem Zustand des technischen Systems zum Zeitpunkt t ist. Dabei ist eine Met- rik im Raum der Zustände festgelegt, wobei im Falle, dass der Abstand zwischen Zuständen einen vorbestimmten Schwellwert unterschreitet, die Zustände als ähnlich betrachtet werden. Werden entsprechende Zustände und damit Aktionssequenzen in der Datenbank DB gefunden, werden auch diese zur Initialisie- rung des schwarmbasierten Algorithmus verwendet. In dem Sze ¬ nario der Fig. 1 ist im Diagramm DI als gestrichelte Linie eine weitere Aktionssequenz A angedeutet, die aus der Daten ¬ bank DB stammt und auch zur Initialisierung verwendet wird. Die Suche gemäß der Teilchenschwarmoptimierung wird bei einer Anzahl von Start-Aktionssequenzen begonnen. Zur Bestimmung der Start-Aktionssequenzen werden die entsprechenden Aktionen der Aktionssequenzen AI und A variiert, wobei hauptsächlich lokale Variationen um die entsprechenden Aktionssequenzen be- rücksichtigt werden. Dies wird in einer bevorzugten Ausführungsform durch eine Wahrscheinlichkeitsfunktion erreicht, wonach größere Variationen der einzelnen Aktionen in der entsprechenden Aktionssequenz umso unwahrscheinlicher werden. Gegebenenfalls kann auch eine entsprechende Metrik im Raum der Aktionssequenzen festgelegt sein, über welche die Größe einer Variation zwischen variierter und nicht-variierter Aktionssequenz festgelegt ist. Wiederum mit einem entsprechenden Wahrscheinlichkeitsmaß werden dann Aktionssequenzen mit kleineren Variationen bevorzugt. Gegebenenfalls können auch harte Schwellwerte der Variationen festgelegt werden, die nicht überschritten werden dürfen. Auf diese Weise wird sichergestellt, dass das schwarmbasierte Optimierungsverfahren seine Suche lokal um die bekannten Aktionssequenzen konzent ¬ riert, so dass verbesserte Aktionssequenzen im Echtzeitbe ¬ trieb des technischen Systems bestimmt werden können.

In dem Szenario der Fig. 1 wird schließlich eine zweite Akti- onssequenz A2 gefunden, welche durch eine strichpunktierte Linie im Diagramm DI angedeutet ist. Diese Aktionssequenz weist ein höheres Gütemaß RE als die ursprüngliche erste Ak ¬ tionssequenz AI auf. Wie durch den Pfeil P3 angedeutet, wird diese Aktionssequenz dann in der Datenbank DB gespeichert und anschließend das technisches System basierend auf dieser Ak ¬ tionssequenz gesteuert, indem zu entsprechenden Betriebszeitpunkten die Aktionen gemäß dieser Aktionssequenz ausgeführt werden . In einer bevorzugten Ausführungsform werden ferner im Falle, dass genügend Rechenzeit zur Verfügung steht, bestimmte, zu ¬ vor durchgeführte schwarmbasierte Optimierungsläufe nochmals fortgesetzt, wobei in diesem Fall die Variation der Aktions ¬ sequenzen zur Bestimmung der Start-Aktionssequenzen nicht mehr beschränkt bzw. über eine Wahrscheinlichkeitsfunktion priorisiert wird. Insbesondere werden dabei die schwarmba- sierten Optimierungsverfahren für solche Zustände des technischen Systems fortgesetzt, welche häufig zuvor eingenommen wurden bzw. bei denen eine große Diskrepanz zwischen der er- mittelten zweiten Aktionssequenz und der ersten Aktionssequenz bestand. Auf diese Weise kann das Optimierungsverfahren weiter verbessert werden. Wird dabei eine nochmals bessere zweite Aktionssequenz gefunden, wird diese in der Datenbank DB gespeichert und ersetzt die vormals gefundene zweite Akti- onssequenz.

Fig. 2 zeigt eine spezielle Ausführungsform des Verfahrens der Fig. 1, bei der das neuronale Netz NN, mit dem die erste Aktionssequenz bestimmt wird, in vorbestimmten Zeitabständen weiter gelernt wird. Im linken Teil der Fig. 2 ist das herkömmliche Lernen LEI des neuronalen Netzes NN wiedergegeben, welches im Vorfeld durchgeführt wird, um hierdurch eine Akti- onsauswahlregel zur Bestimmung entsprechender erster Aktionssequenzen zu erhalten. Dabei sind von dem Netz als Eingangsgrößen einfließende Zustände s des technischen Systems sowie die daraus ermittelte Aktionssequenz a und entsprechende Be ¬ wertungen in der Form von Targets ti, t 2 , t n angedeutet. Das neuronale Netz wird in Bezug auf eine maximale Summe der Bewertungen gelernt. Der Rest des Netzes ist lediglich sche ¬ matisch durch eine Ellipse E wiedergegeben. Zum Lernen des Netzes NN werden Trainingsdaten aus entsprechenden Zuständen und Aktionen verwendet, welche das technische System einge- nommen hat. Das Lernverfahren ist dabei ein bestärkendes Lernverfahren (sog. Reinforcement Learning) .

Im rechten Teil der Fig. 2 ist nunmehr eine Abwandlung des Lernverfahrens LEI gezeigt, welches mit LE2 bezeichnet ist und in regelmäßigen Abständen im Rahmen der hier beschriebenen Ausführungsform durchgeführt wird. Dabei werden neben den ursprünglichen Trainingsdaten, mit denen das Netz NN gemäß dem Lernverfahren LEI gelernt wurde, weitere Trainingsdaten berücksichtigt, die sich aus Datensätzen zusammensetzen, wel- che die Aktionssequenzen ä und die Zustände s umfassen. Die Aktionssequenzen ä sind dabei diejenigen Aktionssequenzen, die im Verfahren der Fig. 1 schlussendlich auf das technische System angewendet wurden. Die Zustände s sind die bei der Ausführung der Aktionen der Sequenz ä eingenommenen Zustände des technischen Systems. Im Rahmen des Lernens LE2 werden nur die mit C bezeichneten Gewichtungsmatrizen variiert. Die restlichen Gewichtungsmatrizen werden auf die Identität gesetzt . Über das Neuron f wird die Funktion f (λ, s, s) = Xs + (l-X)s realisiert. Dabei wird λ = 1 verwendet, wenn der beim Lernen verwendete Datensatz aus den ursprünglichen Trainingsdaten stammt. Demgegenüber wird λ = 0 verwendet, wenn der Datensatz aus den weiteren Trainingsdaten stammt und somit den Zustand s und die entsprechende Aktionssequenz ä repräsentiert. Über den Parameter λ wird erreicht, dass immer dann, wenn ein Datensatz aus den weiteren Trainingsdaten verwendet wird, das neuronale Netz nicht mehr im Hinblick auf die Targets ti, t n bezüglich hoher Bewertungen optimiert wird, denn für λ = 0 werden die entsprechende Targets t x , t n auf 0 gesetzt. Dies wird durch die entsprechenden Multiplikationsknoten M verdeutlicht, welche den Targets ti, t 2 , ···, t n nachgeschaltet sind. Durch die Funktion f bzw. den Multiplikationsknoten M, der der Aktion a nachgeschaltet ist, wird dabei erreicht, dass die Trainingsdaten s und ä der weiteren Trainingsdaten in das neuronale Netz einfließen. Stammt demgegenüber ein Datensatz der Trainingsdaten aus den ursprünglichen Trainings- daten, wird λ = 1 gesetzt, woraufhin das Lernverfahren dem ursprünglichen Lernverfahren LEI entspricht.

Mit dem soeben beschriebenen Lernverfahren LE2 wird das neuronale Netz für weitere Trainingsdaten, welche verbesserte Aktionssequenzen darstellen, im Hinblick darauf optimiert, dass eine gute Übereinstimmung der vom Netz ausgegebenen Aktionssequenz mit der Aktionssequenz ä der weiteren Trainingsdaten vorliegt. Auf diese Weise wird die im Rahmen des Verfahrens erzeugte Ausgabe des neuronalen Netzes immer wei- ter verbessert.

Die im Vorangegangenen beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens weisen eine Reihe von Vorteilen auf. Insbesondere kann eine mit einem datengetriebenen Modell gelernte Aktionsauswahlregel in Echtzeit während des Betriebs des technischen Systems durch die Kombination mit einem numerischen Optimierungsverfahren und insbesondere einer Teil- chenschwarmoptimierung verbessert werden, wobei durch eine lokale Variation entsprechender Aktionssequenzen sicherge- stellt ist, dass für das numerische Optimierungsverfahren we ¬ nig Rechenzeit benötigt wird. Literaturverzeichnis :

[1] DE 10 2007 001 025 AI [2] DE 10 2008 020 379 AI

[3] Hentschel, Sanders, „An efficient algorithm for optimiz- ing adaptive quantum metrology processes", Physical Re ¬ view Letters 107, 233601, 2011

[4] J. Kennedy, R. C. Eberhart, and Y. Shi, "A new optimizer using particle swarm theory", Proceedings of the Sixth International Symposium on Micro Machine and Human Sci ¬ ence, pp. 39-43, 1995

[5] A. Banks, J. Vincent, C. Anyakoha, „A review of particle swarm optimization. Part I: background and development", Natural Computing, Springer Netherlands, Volume 6, Issue 4 (2007) , pp 467-484

[6] A. Banks, J. Vincent, C. Anyakoha, „A review of particle swarm optimization. Part II: hybridisation, combinato- rial, multicriteria and constrained optimization, and indicative applications", Natural Computing, Springer Netherlands, Volume 7, Issue 1 (2008), pp 109-124

[7] D.M. Mukhopadhyay, M.O. Balitanas, A. Farkhod, SH Jeon, D. Bhattacharyya, "Genetic algorithm: A Tutorial Re ¬ view", International Journal of Grid and Distributed Computing, Vol.2, No .3 (2009)