Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 67): Nutzung früherer Erfahrungen zur Lösung neuer Aufgaben"
DIES IST GENIALE ARBEIT Dmitriy! Ich liebe das! 🥰🥰🥰
Wenn Sie das Thema kennen, schreiben Sie einen Artikel über die Verwendung von Google Colab + Tensor Flow. Ich kann eine echte Handelsaufgabe geben und die Eingabedaten berechnen.
Hallo @Dmitriy Gizlyk
Zunächst einmal Hut ab vor Ihren Bemühungen um diese wunderbare Serie über KI und ML.
Ich habe alle Artikel von 1 bis 30 nacheinander an einem einzigen Tag durchgelesen. Die meisten der von Ihnen zur Verfügung gestellten Dateien funktionierten ohne Probleme.
Allerdings bin ich zu Artikel 67 gesprungen und habe versucht, 'ResearchRealORL' auszuführen. Ich erhalte folgende Fehler.
2024.04.21 17:59:59.935 Tester "NNME\Part67\RealORL\ResearchRealORL.ex5" 64 bit 2024.04.21 18:00:00.133 Experts optimization frame expert ResearchRealORL (EURUSD,H1) processing started 2024.04.21 18:00:00.156 Tester Experts\NNME\Part67\RealORL\ResearchRealORL.ex5 on EURUSD,H1 from 2023.01.01 00:00 to 2023.07.31 00:00 2024.04.21 18:00:00.157 Tester EURUSD: history data begins from 2002.09.03 00:00 2024.04.21 18:00:00.157 Tester EURUSD: history data begins from 2002.09.03 00:00 2024.04.21 18:00:00.157 Tester complete optimization started 2024.04.21 18:00:00.168 Core 1 agent process started on 127.0.0.1:3000 2024.04.21 18:00:00.178 Core 2 agent process started on 127.0.0.1:3001 2024.04.21 18:00:00.188 Core 3 agent process started on 127.0.0.1:3002 2024.04.21 18:00:00.200 Core 4 agent process started on 127.0.0.1:3003 2024.04.21 18:00:00.213 Core 5 agent process started on 127.0.0.1:3004 2024.04.21 18:00:00.225 Core 6 agent process started on 127.0.0.1:3005 2024.04.21 18:00:00.237 Core 7 agent process started on 127.0.0.1:3006 2024.04.21 18:00:00.271 Core 8 agent process started on 127.0.0.1:3007 2024.04.21 18:00:00.886 Core 4 connecting to 127.0.0.1:3003 2024.04.21 18:00:00.897 Core 4 connected 2024.04.21 18:00:00.911 Core 4 authorized (agent build 4260) 2024.04.21 18:00:00.928 Core 4 common synchronization completed 2024.04.21 18:00:01.062 Core 2 connecting to 127.0.0.1:3001 2024.04.21 18:00:01.070 Core 2 connected 2024.04.21 18:00:01.081 Core 2 authorized (agent build 4260) 2024.04.21 18:00:01.096 Core 2 common synchronization completed 2024.04.21 18:00:01.110 Core 1 connecting to 127.0.0.1:3000 2024.04.21 18:00:01.118 Core 1 connected 2024.04.21 18:00:01.131 Core 1 authorized (agent build 4260) 2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152 2024.04.21 18:00:01.131 Core 4 pass 1 tested with error "OnInit returned non-zero code 1" in 0:00:00.006 2024.04.21 18:00:01.146 Core 1 common synchronization completed 2024.04.21 18:00:01.146 Core 4 pass 6 tested with error "OnInit returned non-zero code 1" in 0:00:00.004 2024.04.21 18:00:01.146 Core 4 pass 7 tested with error "OnInit returned non-zero code 1" in 0:00:00.003 2024.04.21 18:00:01.162 Core 4 pass 8 tested with error "OnInit returned non-zero code 1" in 0:00:00.004 ... 2024.04.21 18:00:01.454 Statistics optimization done in 0 minutes 01 seconds 2024.04.21 18:00:01.454 Statistics shortest pass 0:00:00.000, longest pass 0:00:00.000, average pass 0:00:00.000 2024.04.21 18:00:01.454 Statistics local 20 tasks (100%), remote 0 tasks (0%), cloud 0 tasks (0%) 2024.04.21 18:00:01.454 Core 1 connection closed 2024.04.21 18:00:01.455 Core 2 connection closed
Könnten Sie mir bitte helfen, wo ich falsch liege?
Mit freundlichen Grüßen und vielen Dank für all Ihre Bemühungen, uns ML in MQL5 beizubringen.
Hallo an alle
Ichführe den Code in Neuronale Netze leicht gemacht (Teil 67) aus: Using past experience to solve new tasks
Ichhabe das gleiche Problem in Bezug auf die folgende Sache.
2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152
Es sieht so aus, als ob es mit dem Befehl 'FileIsExist' zusammenhängt.
Aber ich kann dieses Problem nicht lösen.
Wissen Sie, wie man es lösen kann?
Ichführe den Code in Neuronale Netze leicht gemacht (Teil 67) aus: Using past experience to solve new tasks
Ichhabe das gleiche Problem in Bezug auf die folgende Sache.
2024.04.21 18:00:01.131 Core 4 pass 0 tested with error "OnInit returned non-zero code 1" in 0:00:00.152
Es sieht so aus, als ob es mit dem Befehl 'FileIsExist' zusammenhängt.
Aber ich kann dieses Problem nicht lösen.
Wissen Sie, wie man es lösen kann?
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel Neuronale Netze leicht gemacht (Teil 67): Nutzung früherer Erfahrungen zur Lösung neuer Aufgaben :
In diesem Artikel werden weitere Methoden zur Sammlung von Daten in einem Trainingssatz erörtert. Es liegt auf der Hand, dass der Lernprozess eine ständige Interaktion mit der Umgebung erfordert. Die Situationen können jedoch unterschiedlich sein.
Verstärkungslernen basiert auf der Maximierung der Belohnung, die man von der Umgebung während der Interaktion mit ihr erhält. Es liegt auf der Hand, dass der Lernprozess eine ständige Interaktion mit der Umgebung erfordert. Die Situationen sind jedoch unterschiedlich. Bei der Lösung bestimmter Aufgaben können wir auf verschiedene Einschränkungen bei der Interaktion mit der Umgebung stoßen. Eine mögliche Lösung für solche Situationen ist die Verwendung von Offline-Algorithmen für das verstärkte Lernen. Sie ermöglichen das Trainieren von Modellen auf der Grundlage eines begrenzten Archivs von Trajektorien, die während der ersten Interaktion mit der Umgebung gesammelt wurden, solange diese verfügbar war.
Natürlich hat das Offline-Verstärkungslernen einige Nachteile. Insbesondere wird das Problem der Untersuchung der Umgebung noch akuter, da wir es mit einer begrenzten Trainingsstichprobe zu tun haben, die nicht in der Lage ist, die gesamte Vielseitigkeit der Umgebung zu berücksichtigen. Dies gilt insbesondere in komplexen stochastischen Umgebungen. Im vorigen Artikel haben wir eine der Möglichkeiten zur Lösung dieses Problems erörtert (die Methode ExORL).
Manchmal können jedoch Einschränkungen der Interaktionen mit der Umgebung entscheidend sein. Der Prozess der Umgebungserkundung kann von positiven und negativen Belohnungen begleitet sein. Negative Belohnungen können höchst unerwünscht sein und mit finanziellen Verlusten oder anderen unerwünschten Verlusten einhergehen, die Sie nicht akzeptieren können. Aber Aufgaben kommen selten aus dem Nichts. Meistens optimieren wir einen bestehenden Prozess. Und in unserem Zeitalter der Informationstechnologie kann man fast immer Erfahrungen in der Interaktion mit der zu erforschenden Umgebung bei der Lösung ähnlicher Aufgaben finden. Es ist möglich, Daten aus der realen Interaktion mit der Umgebung zu verwenden, die in gewissem Maße den erforderlichen Raum von Aktionen und Zuständen abdecken können. Experimente, bei denen solche Erfahrungen genutzt werden, um neue Aufgaben bei der Steuerung von realen Robotern zu lösen, werden in dem Artikel „Real World Offline Reinforcement Learning with Realistic Data Source“ beschrieben. Die Autoren des Artikels schlagen einen neuen Rahmen für das Training von Modellen vor: Real-ORL.
Autor: Dmitriy Gizlyk