Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 591
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Eigentlich muss alles in C++/C# geschrieben werden, und es gibt kein Problem, mit irgendetwas zu interagieren. Das Problem ist, dass die wichtigsten DM-Bibliotheken in Python und R vorliegen, und das muss man zumindest beherrschen. Und die Interaktion ist nichts, es gibt überall API (außer MQL). Sie können zumindest Dateien über die RAM-Disk übertragen.
Ja, das stimmt, damit gibt es kein Problem.
Das Problem ist, wie tief man sich in MO verwurzeln muss und in welchem Stadium man begreift, dass diese Modelle bereits ausreichend sind...
Ich habe mich für die Klassiker entschieden, und das reicht mir... Ich bin nicht auf der Suche nach einer 1-10%igen Steigerung der Genauigkeit :) jetzt konzentriere ich mich auf Strategien, viele Ideen habe ich - und all das muss getestet werden, tshe
Ich studiere PNN im Detail - sie arbeiten mit Wahrscheinlichkeitswerten und trainieren nicht sehr viel.
Yura, du bist wirklich etwas Besonderes! )) So spricht man im MQL-Forum. Jetzt werden deine Kameraden kommen und mit Steinen nach dir werfen.
Ich verwende MQL auch nur zum Öffnen/Schließen von Aufträgen. Alle Berechnungen werden in Wissima durchgeführt. Dies ist das einzige Forum, in dem wir mehr oder weniger professionelle Physiker und Mathematiker haben, deshalb bin ich hier. Auf den übrigen Websites sind sie einfach nur Dorftrottel.
Alexander, dieses Thema könnte dich interessieren :)
Die Methode der Annäherung von Wahrscheinlichkeitsdichtefunktionen mittels Kernel-Funktionen ist der Methode derradialen Basisfunktionensehr ähnlich, und so kommen wir natürlich zu den Begriffenprobabilistisches neuronales Netz (PNN) undverallgemeinertes neuronales Regressionsnetz (GRNN)(Speckt 1990, 1991). PNNNs sind fürKlassifizierungsaufgaben und GRNNs fürRegressionsaufgaben geeignet. Netze dieser beiden Typen sind Implementierungen von Kernel-Approximationsverfahren, die alsneuronales Netz konzipiert sind.
Alexander, dieses Thema könnte dich interessieren :)
Die Methode der Annäherung von Wahrscheinlichkeitsdichtefunktionen mittels Kernel-Funktionen ist der Methode derradialen Basisfunktionensehr ähnlich, und so kommen wir natürlich zu den Begriffenprobabilistisches neuronales Netz (PNN) undverallgemeinertes neuronales Regressionsnetz (GRNN)(Speckt 1990, 1991). PNNs sind fürKlassifizierungsaufgaben und GRNNs fürRegressionsaufgaben konzipiert. Bei diesen beiden Arten von Netzen handelt es sich um Implementierungen von Kernel-Approximationsmethoden, die alsneuronales Netz konzipiert sind.
Ja, das stimmt. Vielen Dank, Maxim!
Aber wir müssen bedenken, dass Menschen, die viel lesen, unfähig werden, selbst zu denken.(c) Und das habe ich nicht gesagt. Rate mal, wer?))
Es gibt auch diese Stellungnahme:
Der Mensch hört auf zu denken, wenn er aufhört zu lesen. Diderot
Maxim ist wirklich gut. Manchmal bin ich erstaunt über seine Ansichten. Aber man darf nicht vergessen, dass Menschen, die viel lesen, aus Gewohnheit selbständig denken. Rate mal, wer?))
Es gibt auch diese Stellungnahme:
Der Mensch hört auf zu denken, wenn er aufhört zu lesen. Diderot
Ich stimme zu. Aber der Link ist interessant - ich werde ihn lesen, wenn ich Zeit habe. Ich bin jetzt beschäftigt - ich sehe den Gral am Horizont und gehe, von den kräftigen Händen meines Schwiegervaters angetrieben, auf ihn zu.
Suchet und ihr werdet finden. (с)
Aber nicht dieses Mal.
Maxim ist wirklich sehr gut. Manchmal bin ich erstaunt über seine Ansichten. Aber bedenken Sie, dass Menschen, die viel lesen, aus Gewohnheit selbständig denken. Rate mal, wer?))
Ja, ich bin gerade alle möglichen Artikel durchgegangen, um zu sehen, was es Interessantes zu diesem Thema gibt :) Nun, der Hauptvorteil gegenüber MLP, so wie ich es verstehe, ist die Geschwindigkeit und die minimalen Einstellungen (hier sind sie überhaupt nicht) und dass diese Netze fast nicht neu trainiert werden
Nun, und Gaußsche F-Kräfte werden anstelle von Stydent-Kräften verwendet. Für jede Eingabe wird eine Scheitelpunktdichtefie erstellt, dann werden die Ergebnisse am Ausgang linear summiert
Übrigens, PNN und GRNN sind in mql-Form verfügbar, aber ich habe sie noch nicht ausprobiert und nicht mit MLP verglichen
https://www.mql5.com/ru/code/1323