"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 70

 

Wenn jemand Lust hat, kann er mir sagen, was es damit auf sich hat.

Kombination von adaptiver Steuerung und deterministischen Chaosansätzen zum Aufbau effizienter autonomer Steuerungssysteme

Autonome adaptive Kontrollmethode.

Logische adaptive Steuerungsautomaten mit einer endlichen Anzahl von Eingängen

Kurzum, Sie können hier suchen http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
Dateien:
 

Wie ich noch rechtzeitig entkommen bin :)) ...

yu-sha:

Danke für die Lib :)

 
TheXpert:

Wie ich noch rechtzeitig entkommen bin :)) ...

Ich habe noch nicht alles gepostet, ich bin noch auf der Suche nach lohnenswerten Materialien, mehr Spaß wird kommen :)
 
TheXpert:

Was für ein gutes Timing :)) ...

Danke für die Lib :)

Nicht um der Werbung willen, sondern für einen guten Zweck:https://www.mql5.com/ru/code/712 ist ein nativer Xml-Parser.

Ich benutze es schon seit langem und habe alle Fehler behoben.

XML parser
XML parser
  • Stimmen: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
Ich benutze es schon lange, aber ich glaube, ich habe alle Fehler behoben undhabe sie behoben:

Nicht um der Werbung willen, sondern für einen guten Zweck:https://www.mql5.com/ru/code/712 - nativer Xml-Parser

Ich benutze es jetzt schon eine Weile und habe alle meine Fehler behoben.

Ja, ich habe es bereits heruntergeladen und ausgeführt, aber keine Reaktion, ich habe es auf später verschoben.

Ich werde die Literatur über adaptive Kontrollsysteme zu Ende lesen und mich dann an die Arbeit machen.

 
yu-sha:

Morgen werde ich meine Arbeit an der Speicherung von Netzwerkprototypen, der Einrichtung von Trainingsaufgaben und der Speicherung der gefundenen Lösungen von meinem Arbeitscomputer hierher kopieren

???

 
Urain:

Wenn Sie aufmerksam gelesen haben, was ich früher geschrieben habe, haben Sie bemerkt, dass in meinem Modell des universellen Netzwerks die Verarbeitung selbst in Schichten aufgeteilt ist, d.h. die Neuronen sind nicht formal (durch Eigentum), sondern tatsächlich in Schichten zusammengefasst (die Schicht hat einen Speicher und das Neuron nicht, das Neuron muss nur eine Informationseinheit sein, die die Schicht darüber informiert, wo und warum). Die Parallelität wird also durch die Struktur der Maschine selbst definiert (die Informationen innerhalb der Schicht werden parallel verarbeitet). Ich habe bereits NS mit GA trainiert und der größte Produktivitätsverlust lag genau bei der Berechnung von NS (insbesondere bei großen Netzen). Und als Werbung kann ich sagen, dass für die von joo vorgeschlagene UGA das Lernen von NS ein Kinderspiel ist.

Aber wenn wir es schaffen, auch FF-Berechnungen zu parallelisieren (und NS für GA ist ein Teil von FF), dann bin ich nur dafür. Obwohl ich nicht glaube, dass es eine einfache Aufgabe sein wird, in den Schichten sind einfache Aktionen gemacht, und die Berechnung der FF kann eine ziemlich komplexe Sequenz beinhalten.

Der Rest ist: die Idee eines universellen Motors für jede Topologie, die Idee einer universellen Initialisierungsmethode für jede Topologie und GA als universelles Tutorial für all dies.

Damit können wir es vorerst bewenden lassen, denke ich.

Die Standard-GA und die Cloud würden dazu beitragen, die FF-Berechnung zu parallelisieren. Besonders Renat hat das versprochen:


Verwaltung
2516
Renat2011.10.18 10:50
Die Situation mit der Laufzeit vonMQL5-Programmen ist recht gut + wir bereiten eine neue Version des Compilers mit aktivierten Optimierungen vor, die eine mehrfache Steigerung der Geschwindigkeit bringen wird.

Parallel zur Entwicklung eines neuronalen Netzes werden wir die Funktionalität von Agenten erweitern, um mathematische Berechnungen und den Austausch großer Datenmengen (Dateien) zu unterstützen.

Aber wie man so schön sagt, kann man seine Versprechen nicht drei Jahre lang halten.

Man kann den joo-Algorithmus also vorerst speziell für neuronale Netze optimieren, dann arbeitet er noch schneller. Ich hoffe, Andrey hat nichts dagegen.

 
her.human:

???

a) Disassemblierung von XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Wir werden fortfahren, sobald wir weitere Fragen erhalten.

 
yu-sha:

a) Disassemblierung von XmlParser

b) https://www.mql5.com/ru/forum/4956/page32#comment_110831

Wir werden fortfahren, sobald wir weitere Fragen erhalten.

Kann ich ein kleines Beispiel dafür haben, wie man es für MT5 verwendet?

 

Wenn wir das Neuronentraining als Mikroebene (unabhängige Array-Verarbeitungszyklen in GA, Berechnung einzelner Neuronen eines Netzes usw.) und Makroebene (die gesamte PF) betrachten, dann haben wir keine Fragen und Probleme mit der ersten Ebene - alles läuft perfekt parallel und wird auf der GPU gut funktionieren.

Aber es gibt ein Problem auf der Makroebene. Zunächst einmal vermute ich, dass dies aufgrund der begrenzten Informationsmenge, die von der GPU verarbeitet wird, nicht möglich ist. Wir könnten das umgehen, indem wir reguläre Tester und die Cloud verwenden (jede Makroebene wird an separate Agenten übertragen, und dort wird sie auf Mikroebene verarbeitet - natürlich nur, wenn der Host dies zulässt). Aber wir haben nicht die Möglichkeit, den Tester extern zu steuern, um externe GA zu verwenden.

Wir werden uns also auf die Beschleunigung auf der Mikroebene beschränken müssen. Die Beschleunigung wird ebenfalls sehr gut sein, da die Netze und GAs selbst eine Fülle von Berechnungen enthalten, die voneinander unabhängig sind.

Was UGA selbst betrifft, so gibt es praktisch nichts zu verbessern, wenn man es nicht für OpenCL verfeinert(es sei denn, man hat ein paar Codefragmente, aber das wird dank der Beteiligten am Algorithmus-Diskussionsthread in diesem Artikel keinen Unterschied machen). Sie können nur versuchen, die Einstellungen von UGA speziell für Trainingsnetze zu wählen.