Dmitriy Gizlyk / Profil
- Information
|
12+ Jahre
Erfahrung
|
0
Produkte
|
0
Demoversionen
|
|
134
Jobs
|
0
Signale
|
0
Abonnenten
|
Wir laden Sie ein, sich mit dem Hierarchical Double-Tower Transformer (Hidformer) vertraut zu machen, der für Zeitreihenprognosen und Datenanalysen entwickelt wurde. Die Autoren des Rahmenwerks schlugen mehrere Verbesserungen an der Transformer-Architektur vor, die zu einer höheren Vorhersagegenauigkeit und einem geringeren Verbrauch an Rechenressourcen führten.
Das MacroHFT-Framework für den Hochfrequenzhandel mit Kryptowährungen nutzt kontextbezogenes Verstärkungslernen und Speicher, um sich an dynamische Marktbedingungen anzupassen. Am Ende dieses Artikels werden wir die implementierten Ansätze an realen historischen Daten testen, um ihre Wirksamkeit zu bewerten.
Ich lade Sie ein, das MacroHFT-Framework zu erkunden, das kontextbewusstes Verstärkungslernen und eine Speicherverwendung anwendet, um Hochfrequenzhandelsentscheidungen für Kryptowährungen mithilfe von makroökonomischen Daten und adaptiven Agenten zu verbessern.
Wir setzen weiterhin die von den Autoren des FinCon-Rahmens vorgeschlagenen Ansätze um. FinCon ist ein Multi-Agenten-System, das auf Large Language Models (LLMs) basiert. Heute werden wir die erforderlichen Module implementieren und umfassende Tests des Modells mit realen historischen Daten durchführen.
Wir laden Sie ein, den FinCon-Rahmen zu erkunden, der ein auf einem Large Language Model (LLM) basierendes Multi-Agenten-System ist. Der Rahmen nutzt konzeptionelle verbale Verstärkung, um die Entscheidungsfindung und das Risikomanagement zu verbessern und eine effektive Leistung bei einer Vielzahl von Finanzaufgaben zu ermöglichen.
Wir entwickeln weiterhin die Algorithmen für FinAgent, einen multimodalen Finanzhandelsagenten, der multimodale Marktdynamikdaten und historische Handelsmuster analysiert.
Wir laden Sie ein, FinAgent kennenzulernen, ein multimodales Finanzhandelsagenten-Framework zur Analyse verschiedener Datentypen, die die Marktdynamik und historische Handelsmuster widerspiegeln.
Wir setzen unsere Arbeit an der Entwicklung des Systems von FinMem fort, das mehrschichtige Speicheransätze verwendet, die menschliche kognitive Prozesse nachahmen. Dadurch kann das Modell nicht nur komplexe Finanzdaten effektiv verarbeiten, sondern sich auch an neue Signale anpassen, was die Genauigkeit und Effektivität von Anlageentscheidungen auf sich dynamisch verändernden Märkten erheblich verbessert.
Mehrschichtige Speicher, die die kognitiven Prozesse des Menschen nachahmen, ermöglichen die Verarbeitung komplexer Finanzdaten und die Anpassung an neue Signale, wodurch die Wirksamkeit von Anlageentscheidungen auf dynamischen Märkten verbessert wird.
Im vorangegangenen Artikel haben wir die theoretischen Grundlagen erforscht und mit der Umsetzung der Ansätze des Systems Multitask-Stockformer begonnen, das die Wavelet-Transformation und das Self-Attention-Multitask-Modell kombiniert. Wir fahren fort, die Algorithmen dieses Rahmens zu implementieren und ihre Effektivität anhand realer historischer Daten zu bewerten.
Wir laden Sie ein, einen Rahmen zu erkunden, der Wavelet-Transformationen und ein Multitasking-Selbstaufmerksamkeitsmodell kombiniert, um die Reaktionsfähigkeit und Genauigkeit von Prognosen unter volatilen Marktbedingungen zu verbessern. Die Wavelet-Transformation ermöglicht die Zerlegung der Renditen von Vermögenswerten in hohe und niedrige Frequenzen, wodurch langfristige Markttrends und kurzfristige Schwankungen sorgfältig erfasst werden.
Wir setzen unsere Untersuchung des hybriden Handelssystems StockFormer fort, das prädiktive Kodierungs- und Verstärkungslernalgorithmen für die Analyse von Finanzzeitreihen kombiniert. Das System basiert auf drei Transformer-Zweigen mit einem diversifizierten Mehrkopf-Aufmerksamkeitsmechanismus (DMH-Attn), der die Erfassung komplexer Muster und Abhängigkeiten zwischen Assets ermöglicht. Zuvor haben wir uns mit den theoretischen Aspekten des Frameworks vertraut gemacht und die DMH-Attn-Mechanismus implementiert. Heute werden wir über die Modellarchitektur und das Training sprechen.
In diesem Artikel wird das hybride Handelssystem StockFormer vorgestellt, das die Algorithmen von Predictive Coding und dem Reinforcement Learning (RL) kombiniert. Das Framework verwendet 3 Transformer-Zweige mit einem integrierten Diversified Multi-Head Attention (DMH-Attn)-Mechanismus, der das ursprüngliche Aufmerksamkeitsmodul mit einem mehrköpfigen Block des Vorwärtsdurchlaufs verbessert und es ermöglicht, diverse Zeitreihenmuster über verschiedene Teilräume hinweg zu erfassen.
Im vorangegangenen Artikel haben wir das adaptive System MASAAT der Multi-Agenten vorgestellt, das ein Ensemble von Agenten verwendet, um eine Kreuzanalyse von multimodalen Zeitreihen auf verschiedenen Datenskalen durchzuführen. Heute werden wir die Ansätze dieses Rahmens in MQL5 weiter umsetzen und diese Arbeit zu einem logischen Abschluss bringen.
Wir stellen das Multi-Agent Self-Adaptive Portfolio Optimization Framework (MASAAT) vor, das Aufmerksamkeitsmechanismen und Zeitreihenanalyse kombiniert. MASAAT generiert eine Reihe von Agenten, die Preisreihen und Richtungsänderungen analysieren und so die Identifizierung signifikanter Fluktuationen in Vermögenspreisen auf verschiedenen Detailebenen ermöglichen.
Im vorangegangenen Artikel haben wir das adaptive Multi-Agenten-System MASA vorgestellt, das Reinforcement-Learning-Ansätze und selbstanpassende Strategien kombiniert und so ein harmonisches Gleichgewicht zwischen Rentabilität und Risiko unter turbulenten Marktbedingungen ermöglicht. Wir haben die Funktionalität der einzelnen Agenten in diesem Rahmen aufgebaut. In diesem Artikel setzen wir die begonnene Arbeit fort und bringen sie zu einem logischen Abschluss.
Ich lade Sie ein, sich mit dem Multi-Agent Self-Adaptive (MASA) Framework vertraut zu machen, das Reinforcement Learning und adaptive Strategien kombiniert und ein harmonisches Gleichgewicht zwischen Rentabilität und Risikomanagement unter turbulenten Marktbedingungen bietet.
In der vorangegangenen Arbeit haben wir die theoretischen Aspekte des PSformer-Rahmens erörtert, der zwei wichtige Neuerungen in der klassischen Transformer-Architektur beinhaltet: den Parameter-Shared (PS)-Mechanismus und die Berücksichtigung von räumlich-zeitlichen Segmenten (SegAtt). In diesem Artikel setzen wir die Arbeit fort, die wir bei der Implementierung der vorgeschlagenen Ansätze mit MQL5 begonnen haben.
In diesem Artikel wird das neue PSformer-Framework vorgestellt, das die Architektur des einfachen Transformers an die Lösung von Problemen im Zusammenhang mit multivariaten Zeitreihenprognosen anpasst. Der Rahmen basiert auf zwei wichtigen Innovationen: dem Parameter-Sharing-Mechanismus (PS) und der Segment Attention (SegAtt).
SAMformer bietet eine Lösung für die wichtigsten Nachteile von Transformer-Modellen in der langfristigen Zeitreihenprognose, wie z. B. die Komplexität des Trainings und die schlechte Generalisierung auf kleinen Datensätzen. Die flache Architektur und die auf Schärfe ausgerichtete Optimierung helfen, suboptimale lokale Minima zu vermeiden. In diesem Artikel werden wir die Umsetzung von Ansätzen mit MQL5 fortsetzen und ihren praktischen Wert bewerten.