"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 90

 
litechat:

Ich entschuldige mich, ich habe den Code noch nie gepostet.

Ich sehe, dass es gelöst ist, alles ist gut.

dann entfernen Sie den defekten Link aus der Wikipedia.
 
sergeev:
dann entfernen Sie den defekten Link aus der Wikipedia.
Sie wurde bereits ersetzt.
 
Торговую утилиту NeuroPlus
Торговую утилиту NeuroPlus
  • 2015.10.19
  • Roma Ivanov
  • www.mql5.com
Утилита позволяет обучать нейронную сеть (многослойный перцептрон) не прибегая к языку программирования. В сеть можно подавать любые индикаторы. Нормализация входных данных происходит на лету, по выбору пользователя. Обучение сети происходит также на...
 
Andrey Dik:

Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform

Was ist das Ergebnis? Gibt es eine neuronale Engine für MT5? Wo ist sie?
 
kapelmann:
Was ist also das Ergebnis? Gibt es irgendwo ein Neuron für MT5? Wo ist sie?
Das tue ich. In Python. Es ist irgendwo da drin.)
 
kapelmann:
Was ist also das Ergebnis? Gibt es eine Neuronik für MT5? Wo ist sie?

istdas Projekt leider ins Stocken geraten.

Aber Alglib erschien als Teil des Terminals, halten Sie Ausschau nach ihm.

 
Andrey Dik:

ist das Projekt leider ins Stocken geraten.

Aber Alglib ist jetzt Teil des Terminals, halten Sie Ausschau danach.

Die Anzahl der Schichten im MLP ist begrenzt. Wie im Original von Alglib.
 
Andrey Dik:

ist das Projekt leider ins Stocken geraten.

Aber Alglib wurde dem Terminal hinzugefügt, halten Sie Ausschau nach ihm.

Dmitrij Skub:
Es gibt eine Begrenzung der Anzahl der Schichten in MLP. Wie im Original von Alglib.

Hmmm... überhaupt seltsam, wenn man einige Beiträge wie:

TheXpert:

Ahem (bescheiden) über die Reaktion - es gibt bereits 3 Libs für Neuronen.

Eines hat mehr als 10 Netze. Arbeitete mit Kohonen-Netzen, MLP, Rezirkulation, Hopfield ... ,

die zweite ist die Implementierung des allgemeinen Falles von MLP + Jordana-Elman-Netz - d.h. beliebige Topologie (gerichteter Graph) mit der Möglichkeit, beliebige Schichten zurückzuschleifen,

die dritte ist eine Implementierung eines Echo-Netzwerks, mein Favorit :) .

Es ist wirklich lange her (abgesehen vom Echo-Netzwerk), aber Sie können sich erinnern. Ich habe nicht mit probabilistischen Modellen gearbeitet. Nicht vertraut mit den jüngsten Verbesserungen der Gradientenabstiegsmethode und hybriden Methoden.


Für mich sind 4 der implementierten Netzwerke interessant

1. Kohonen-Netze, einschließlich SOM. Sie eignet sich gut für die Partitionierung von Clustern, bei denen nicht klar ist, wonach sie suchen sollen. Ich denke, die Topologie ist wohlbekannt: Vektor als Eingang, Vektor als Ausgang oder anderweitig gruppierte Ausgänge. Lernen kann mit oder ohne Lehrer stattfinden.

2. die MLP in ihrer allgemeinsten Form, d. h. mit einer beliebigen Anzahl von Schichten, die als Graph mit Rückkopplungen organisiert sind. Sehr weit verbreitet.

3. Rückführungsnetz. Ehrlich gesagt, habe ich noch nie eine normal funktionierende nicht-lineare Implementierung gesehen. Es wird für die Informationskompression und die Extraktion von Hauptkomponenten (PCA) verwendet. In seiner einfachsten linearen Form wird es als lineares zweischichtiges Netz dargestellt, in dem sich das Signal von beiden Seiten ausbreiten kann (oder dreischichtig in seiner entfalteten Form).

4.Echo-Netzwerk. Im Prinzip ähnlich wie MLP, auch dort angewandt. Aber es ist völlig anders organisiert und hat eine genau definierte Lernzeit (und erzeugt im Gegensatz dazu immer ein globales Minimum).

5. PNN - Ich habe es nicht benutzt, ich weiß nicht wie. Aber ich glaube, dass es da draußen jemanden gibt, der das tun kann.

6. Modelle für Fuzzy-Logik (nicht zu verwechseln mit probabilistischen Netzen). Nicht umgesetzt. Kann aber nützlich sein. Wenn jemand Informationen findet, bitte werfen. Fast alle Modelle haben japanische Urheberschaft. Fast alle werden manuell erstellt, aber wenn es möglich wäre, die Topologiekonstruktion durchlogische Ausdrücke zu automatisieren (wenn ich mich richtig erinnere), wäre das unrealistisch cool.

Und man denkt, wow, was für Genies hier versammelt sind, aber im Ergebnis "Projekt gestoppt" und von fertig gibt es nur dies und es scheint, dass die meisten von ihnen nur kleinliche Lügner sind.

 
kapelmann:

Hmmm... es ist überhaupt seltsam, man liest einige der Beiträge wie:

Und man denkt, wow, was für Genies hier versammelt sind, aber das Ergebnis ist "Projekt gestoppt" und es gibt nur das und es sieht so aus, als ob die meisten von ihnen nur kleine Lügner sind.

Auf ihrem Marktplatz gibt es eine Menge Schmutz.

 
kapelmann:

Hmmm... es ist überhaupt seltsam, man liest einige der Beiträge wie:

Und man denkt, wow, was für Genies hier versammelt sind, aber als Ergebnis "das Projekt ist ins Stocken geraten" und es gibt nur dies und es scheint, dass die meisten von ihnen nur kleine Lügner sind.

Es ist ein Open-Source-Projekt, niemand schuldet irgendjemandem irgendetwas .... rein aus Instinkt.
Es ist nicht leicht, Genies in einer Gruppe zu versammeln, und manche langweilen sich, andere denken, sie arbeiten härter als andere...
Es war interessant, es hat Spaß gemacht, was braucht man mehr? Diejenigen, die sich dafür interessierten, lernten etwas Neues für sich selbst, schauten in Bücher und Bücher, und das war ein Training für das Gehirn.
Aber diejenigen, die auf vorgefertigte Lösungen gewartet haben, brauchen sich nicht zu entschuldigen.
Dank an alle, die aktiv an dem Projekt mitgewirkt haben, und die anderen werden nicht erwähnt.

Grund der Beschwerde: