"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 70
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wenn jemand Lust hat, kann er mir sagen, was es damit auf sich hat.
Kombination von adaptiver Steuerung und deterministischen Chaosansätzen zum Aufbau effizienter autonomer Steuerungssysteme
Autonome adaptive Kontrollmethode.
Logische adaptive Steuerungsautomaten mit einer endlichen Anzahl von Eingängen
Kurzum, Sie können hier suchen http://www.aac-lab.com/rus/
Wie ich noch rechtzeitig entkommen bin :)) ...
Danke für die Lib :)
Wie ich noch rechtzeitig entkommen bin :)) ...
Was für ein gutes Timing :)) ...
Danke für die Lib :)
Nicht um der Werbung willen, sondern für einen guten Zweck:https://www.mql5.com/ru/code/712 ist ein nativer Xml-Parser.
Ich benutze es schon seit langem und habe alle Fehler behoben.
Nicht um der Werbung willen, sondern für einen guten Zweck:https://www.mql5.com/ru/code/712 - nativer Xml-Parser
Ich benutze es jetzt schon eine Weile und habe alle meine Fehler behoben.
Ja, ich habe es bereits heruntergeladen und ausgeführt, aber keine Reaktion, ich habe es auf später verschoben.
Ich werde die Literatur über adaptive Kontrollsysteme zu Ende lesen und mich dann an die Arbeit machen.
Morgen werde ich meine Arbeit an der Speicherung von Netzwerkprototypen, der Einrichtung von Trainingsaufgaben und der Speicherung der gefundenen Lösungen von meinem Arbeitscomputer hierher kopieren
???
Wenn Sie aufmerksam gelesen haben, was ich früher geschrieben habe, haben Sie bemerkt, dass in meinem Modell des universellen Netzwerks die Verarbeitung selbst in Schichten aufgeteilt ist, d.h. die Neuronen sind nicht formal (durch Eigentum), sondern tatsächlich in Schichten zusammengefasst (die Schicht hat einen Speicher und das Neuron nicht, das Neuron muss nur eine Informationseinheit sein, die die Schicht darüber informiert, wo und warum). Die Parallelität wird also durch die Struktur der Maschine selbst definiert (die Informationen innerhalb der Schicht werden parallel verarbeitet). Ich habe bereits NS mit GA trainiert und der größte Produktivitätsverlust lag genau bei der Berechnung von NS (insbesondere bei großen Netzen). Und als Werbung kann ich sagen, dass für die von joo vorgeschlagene UGA das Lernen von NS ein Kinderspiel ist.
Aber wenn wir es schaffen, auch FF-Berechnungen zu parallelisieren (und NS für GA ist ein Teil von FF), dann bin ich nur dafür. Obwohl ich nicht glaube, dass es eine einfache Aufgabe sein wird, in den Schichten sind einfache Aktionen gemacht, und die Berechnung der FF kann eine ziemlich komplexe Sequenz beinhalten.
Damit können wir es vorerst bewenden lassen, denke ich.
Die Standard-GA und die Cloud würden dazu beitragen, die FF-Berechnung zu parallelisieren. Besonders Renat hat das versprochen:
Verwaltung
2516
Parallel zur Entwicklung eines neuronalen Netzes werden wir die Funktionalität von Agenten erweitern, um mathematische Berechnungen und den Austausch großer Datenmengen (Dateien) zu unterstützen.
Aber wie man so schön sagt, kann man seine Versprechen nicht drei Jahre lang halten.
Man kann den joo-Algorithmus also vorerst speziell für neuronale Netze optimieren, dann arbeitet er noch schneller. Ich hoffe, Andrey hat nichts dagegen.
???
a) Disassemblierung von XmlParser
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
Wir werden fortfahren, sobald wir weitere Fragen erhalten.
a) Disassemblierung von XmlParser
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
Wir werden fortfahren, sobald wir weitere Fragen erhalten.
Kann ich ein kleines Beispiel dafür haben, wie man es für MT5 verwendet?
Wenn wir das Neuronentraining als Mikroebene (unabhängige Array-Verarbeitungszyklen in GA, Berechnung einzelner Neuronen eines Netzes usw.) und Makroebene (die gesamte PF) betrachten, dann haben wir keine Fragen und Probleme mit der ersten Ebene - alles läuft perfekt parallel und wird auf der GPU gut funktionieren.
Aber es gibt ein Problem auf der Makroebene. Zunächst einmal vermute ich, dass dies aufgrund der begrenzten Informationsmenge, die von der GPU verarbeitet wird, nicht möglich ist. Wir könnten das umgehen, indem wir reguläre Tester und die Cloud verwenden (jede Makroebene wird an separate Agenten übertragen, und dort wird sie auf Mikroebene verarbeitet - natürlich nur, wenn der Host dies zulässt). Aber wir haben nicht die Möglichkeit, den Tester extern zu steuern, um externe GA zu verwenden.
Wir werden uns also auf die Beschleunigung auf der Mikroebene beschränken müssen. Die Beschleunigung wird ebenfalls sehr gut sein, da die Netze und GAs selbst eine Fülle von Berechnungen enthalten, die voneinander unabhängig sind.
Was UGA selbst betrifft, so gibt es praktisch nichts zu verbessern, wenn man es nicht für OpenCL verfeinert(es sei denn, man hat ein paar Codefragmente, aber das wird dank der Beteiligten am Algorithmus-Diskussionsthread in diesem Artikel keinen Unterschied machen). Sie können nur versuchen, die Einstellungen von UGA speziell für Trainingsnetze zu wählen.