
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Übersichten über Anwendungen (Objekte, Modelle und Werkzeuge)
1. Überblick über die Anwendung von Deep Learning im algorithmischen Handel (2021)
Der algorithmische Handel ist eine der wichtigsten Richtungen im Bereich der Finanzanwendungen.
Im Vergleich zu traditionellen Handelsstrategien führen algorithmische Handelsanwendungen Prognosen und Arbitrage mit höherer Effizienz und stabilerer Leistung durch.
Zahlreiche Studien über algorithmische Handelsmodelle, die Deep Learning verwenden, wurden durchgeführt, um Handelsprognosen und Analysen durchzuführen.
In diesem Artikel fassen wir zunächst mehrere Deep-Learning-Methoden zusammen, die sich in algorithmischen Handelsanwendungen bewährt haben, und stellen kurz einige Anwendungen von Deep Learning im algorithmischen Handel vor.
Anschließend versuchen wir, die neueste Snapshot-Anwendung für den algorithmischen Handel auf der Grundlage der Deep-Learning-Technologie vorzustellen, und zeigen die verschiedenen Implementierungen des entwickelten algorithmischen Handelsmodells.
Abschließend werden einige mögliche Forschungsfragen für die Zukunft vorgeschlagen.
Das Hauptziel dieser Arbeit ist es , einen umfassenden Überblick über den Forschungsfortschritt von Deep-Learning-Anwendungen im algorithmischen Handel zu geben und einen Nutzen für die nachfolgende Forschung von Computerprogramm-Handelssystemen zu bieten.
2) Deep Learning für Finanzanwendungen: Ein Überblick (2020)
Computergestützte Intelligenz im Finanzbereich ist in den letzten Jahrzehnten sowohl in der Wissenschaft als auch in der Finanzindustrie ein sehr beliebtes Thema gewesen.
Es wurden zahlreiche Studien veröffentlicht, die zu verschiedenen Modellen geführt haben. Im Bereich des maschinellen Lernens (ML) hat das Deep Learning (DL) in letzter Zeit viel Aufmerksamkeit erregt, vor allem aufgrund seiner besseren Leistung als die klassischen Modelle.
Es gibt heute viele verschiedene Implementierungen von DL, und das breite Interesse hält an. Das Finanzwesen ist ein besonderer Bereich, in dem DL-Modelle an Bedeutung gewonnen haben, allerdings ist das Spielfeld noch weit offen und es gibt noch viele Forschungsmöglichkeiten.
In diesem Beitrag haben wir versucht, einen Überblick über den aktuellen Stand der entwickelten DL-Modelle für Finanzanwendungen zu geben.
Wir haben die Arbeiten nicht nur nach ihrem angestrebten Teilbereich im Finanzwesen kategorisiert, sondern sie auch auf der Grundlage ihrer DL-Modelle analysiert.
Darüber hinaus haben wir versucht, mögliche künftige Implementierungen zu identifizieren und den Weg für die laufende Forschung auf diesem Gebiet aufzuzeigen.
3. finanzielle Zeitreihenprognosen mit Deep Learning: Eine systematische Literaturübersicht: 2005-2019 (2019)
Financial time series forecasting is, without a doubt, the top choice of computational intelligence for finance researchers from both academia and financial industry due to its broad implementation areas and substantial impact.
Forscher auf dem Gebiet des maschinellen Lernens (ML) haben verschiedene Modelle entwickelt, und eine große Anzahl von Studien wurde veröffentlicht.
Daher gibt es eine beträchtliche Anzahl von Studien, die sich mit ML für Finanzzeitreihenprognosen befassen.
In letzter Zeit tauchen in diesem Bereich auch Modelle des Deep Learning (DL) auf, deren Ergebnisse die traditionellen ML-Modelle deutlich übertreffen.
Obwohl es ein wachsendes Interesse an der Entwicklung von Modellen für die Finanzzeitreihenprognoseforschung gibt, fehlt es an Übersichtsarbeiten, die sich ausschließlich auf DL im Finanzbereich konzentrieren.
Daher besteht unsere Motivation in dieser Arbeit darin, einen umfassenden Literaturüberblick über DL-Studien für die Implementierung von Finanzzeitreihenprognosen zu geben.
Wir haben die Studien nicht nur nach den Bereichen kategorisiert, in denen die Prognosen umgesetzt werden sollen, wie z.B. Index-, Devisen- und Rohstoffprognosen, sondern sie auch nach der Wahl des DL-Modells gruppiert, wie z.B. Convolutional Neural Networks (CNNs), Deep Belief Networks (DBNs) und Long-Short Term Memory (LSTM).
Wir haben auch versucht, einen Ausblick auf die Zukunft des Bereichs zu geben, indem wir die möglichen Rückschläge und Chancen hervorgehoben haben, damit interessierte Forscher davon profitieren können.
Haben Sie etwas anderes erwartet? Nur durch die eigene Erfahrung und das eigene Wissen kann es zu einem Ergebnis kommen.
Ich habe eher nicht erwartet, dass so etwas jetzt möglich ist, die Technologie ist beeindruckend. Ich stimme zu, dass selbst mit solchen Werkzeugen ernsthafte Arbeit erforderlich ist, und Erfahrung ist der Sohn harter Fehler....
Transfer Vorverarbeitung zu MT ist kein Problem, ich will wirklich das System in MT-Tester zu testen, in Python/R muss ich meine eigenen Tester zu schreiben, voller Fehler.
Die Verwendung von ONNX-Modellen in µl löst das Problem der Implementierung. Allerdings sind nicht alle Modelle und nicht ganz einfach.
Das Training und die Optimierung der Modelle wird durch einen separaten Prozess in Python gelöst.
Von all diesen Schritten ist der erste der zeitaufwändigste, kreativste und wichtigste. Und es ist unmöglich, sie auf µl zu realisieren. Wir betrachten die primitive Skalierung nicht als Vorverarbeitung. Und die Volksweisheit sagt: "Müll rein - Müll raus". Es gibt zu viel, was zusätzlich entwickelt und in MCL implementiert werden muss, um MO nur auf MCL voll nutzen zu können. Es ist unmöglich, das Unermessliche zu umarmen, zumal es sich ständig erweitert ...
Ist es wirklich so schlimm? Schließlich sind schon viele Artikel über neuronale Netze geschrieben worden. Und es gibt sogar einige, in denen alles "einfach" ist .....
Die erste Phase ist jedoch die zeitaufwändigste, kreativste und wichtigste Phase. Und es ist unmöglich, sie auf µl zu implementieren.
Soweit ich verstanden habe, geht es um die Schwierigkeit, einige Preisfunktionen zu berechnen, die als Eigenschaften des Netzes fungieren.
Können Sie ein Beispiel nennen, vielleicht gibt es hier jemanden, der eine Implementierung dieser Dinge vorstellt.
Ist das wirklich so schlimm? Ich meine, es wurden schon viele Artikel über neuronale Netze geschrieben. Und es gibt sogar einige, in denen alles "einfach" ist ....
Es ist nicht schlecht. Verglichen mit der modernen Entwicklung von Vorverarbeitungsfunktionen befindet sich alles noch in einem sehr embryonalen Stadium.
Ich programmiere schon seit langem in R. Vor nicht allzu langer Zeit habe ich Python verwendet, und das Wichtigste, was mir beim Studium von Projekten (Paketen) für maschinelles Lernen in Python aufgefallen ist, ist das fast vollständige Fehlen von Vorverarbeitungsfunktionen. Der Ansatz ist, dass das Modell alles herausnimmt. Das ist weder schlecht noch gut. Dies ist der Ansatz, der sich historisch entwickelt hat.
Im Gegensatz dazu verfügt R über ein riesiges Arsenal an Vorverarbeitungen, von denen man weiß, wozu sie gut sind.
Obwohl es in letzter Zeit eine gegenseitige Anleihe vieler nützlicher Entwicklungen gegeben hat.
Ich meine, dass es unmöglich ist, die Weite zu erfassen, und die Entwickler bemühen sich, dies zu tun. Zu portieren, was in C geschrieben ist - ja, aber alles in MKL..... neu zu schreiben.
Bezüglich ONNX. Der Bereich ist neu, sehr vielversprechend, entwickelt sich schnell und ist sehr gefragt. Das bedeutet, dass es eine Möglichkeit geben wird, in ONNX und die Vorverarbeitung einzusteigen. TensorFlow hat bereits Schichten der Vorverarbeitung, wenn auch einfach, aber immerhin. Sie müssen es ausprobieren, es wird sich als nützlich erweisen.
Natürlich sieht es attraktiver aus, ONNX beim Training zu verwenden, aber das ist nur für Linux. Vielleicht können WSL-Experten es irgendwie nutzen.