Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Information
12+ Jahre
Erfahrung
0
Produkte
0
Demoversionen
134
Jobs
0
Signale
0
Abonnenten
X
Professional programming of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Hierarchischer Dual-Tower-Transformer (Hidformer) veröffentlicht
Neuronale Netze im Handel: Hierarchischer Dual-Tower-Transformer (Hidformer)

Wir laden Sie ein, sich mit dem Hierarchical Double-Tower Transformer (Hidformer) vertraut zu machen, der für Zeitreihenprognosen und Datenanalysen entwickelt wurde. Die Autoren des Rahmenwerks schlugen mehrere Verbesserungen an der Transformer-Architektur vor, die zu einer höheren Vorhersagegenauigkeit und einem geringeren Verbrauch an Rechenressourcen führten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Speichererweitertes kontextbezogenes Lernen für Kryptowährungsmärkte (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Speichererweitertes kontextbezogenes Lernen für Kryptowährungsmärkte (letzter Teil)

Das MacroHFT-Framework für den Hochfrequenzhandel mit Kryptowährungen nutzt kontextbezogenes Verstärkungslernen und Speicher, um sich an dynamische Marktbedingungen anzupassen. Am Ende dieses Artikels werden wir die implementierten Ansätze an realen historischen Daten testen, um ihre Wirksamkeit zu bewerten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Speichererweitertes kontextbezogenes Lernen (MacroHFT) für Kryptowährungsmärkte veröffentlicht
Neuronale Netze im Handel: Speichererweitertes kontextbezogenes Lernen (MacroHFT) für Kryptowährungsmärkte

Ich lade Sie ein, das MacroHFT-Framework zu erkunden, das kontextbewusstes Verstärkungslernen und eine Speicherverwendung anwendet, um Hochfrequenzhandelsentscheidungen für Kryptowährungen mithilfe von makroökonomischen Daten und adaptiven Agenten zu verbessern.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Multi-Agenten-System mit konzeptioneller Verstärkung (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Ein Multi-Agenten-System mit konzeptioneller Verstärkung (letzter Teil)

Wir setzen weiterhin die von den Autoren des FinCon-Rahmens vorgeschlagenen Ansätze um. FinCon ist ein Multi-Agenten-System, das auf Large Language Models (LLMs) basiert. Heute werden wir die erforderlichen Module implementieren und umfassende Tests des Modells mit realen historischen Daten durchführen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Multi-Agenten-System mit konzeptioneller Verstärkung (FinCon) veröffentlicht
Neuronale Netze im Handel: Ein Multi-Agenten-System mit konzeptioneller Verstärkung (FinCon)

Wir laden Sie ein, den FinCon-Rahmen zu erkunden, der ein auf einem Large Language Model (LLM) basierendes Multi-Agenten-System ist. Der Rahmen nutzt konzeptionelle verbale Verstärkung, um die Entscheidungsfindung und das Risikomanagement zu verbessern und eine effektive Leistung bei einer Vielzahl von Finanzaufgaben zu ermöglichen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein multimodaler, werkzeuggestützter Agent für Finanzmärkte (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Ein multimodaler, werkzeuggestützter Agent für Finanzmärkte (letzter Teil)

Wir entwickeln weiterhin die Algorithmen für FinAgent, einen multimodalen Finanzhandelsagenten, der multimodale Marktdynamikdaten und historische Handelsmuster analysiert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein multimodaler, werkzeuggestützter Agent für Finanzmärkte (FinAgent) veröffentlicht
Neuronale Netze im Handel: Ein multimodaler, werkzeuggestützter Agent für Finanzmärkte (FinAgent)

Wir laden Sie ein, FinAgent kennenzulernen, ein multimodales Finanzhandelsagenten-Framework zur Analyse verschiedener Datentypen, die die Marktdynamik und historische Handelsmuster widerspiegeln.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Agent mit geschichtetem Gedächtnis (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Ein Agent mit geschichtetem Gedächtnis (letzter Teil)

Wir setzen unsere Arbeit an der Entwicklung des Systems von FinMem fort, das mehrschichtige Speicheransätze verwendet, die menschliche kognitive Prozesse nachahmen. Dadurch kann das Modell nicht nur komplexe Finanzdaten effektiv verarbeiten, sondern sich auch an neue Signale anpassen, was die Genauigkeit und Effektivität von Anlageentscheidungen auf sich dynamisch verändernden Märkten erheblich verbessert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Agent mit geschichtetem Speicher veröffentlicht
Neuronale Netze im Handel: Ein Agent mit geschichtetem Speicher

Mehrschichtige Speicher, die die kognitiven Prozesse des Menschen nachahmen, ermöglichen die Verarbeitung komplexer Finanzdaten und die Anpassung an neue Signale, wodurch die Wirksamkeit von Anlageentscheidungen auf dynamischen Märkten verbessert wird.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Modelle mit Wavelet-Transformation und Multitasking-Aufmerksamkeit (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Modelle mit Wavelet-Transformation und Multitasking-Aufmerksamkeit (letzter Teil)

Im vorangegangenen Artikel haben wir die theoretischen Grundlagen erforscht und mit der Umsetzung der Ansätze des Systems Multitask-Stockformer begonnen, das die Wavelet-Transformation und das Self-Attention-Multitask-Modell kombiniert. Wir fahren fort, die Algorithmen dieses Rahmens zu implementieren und ihre Effektivität anhand realer historischer Daten zu bewerten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Modelle mit Wavelet-Transformation und Multitasking-Aufmerksamkeit veröffentlicht
Neuronale Netze im Handel: Modelle mit Wavelet-Transformation und Multitasking-Aufmerksamkeit

Wir laden Sie ein, einen Rahmen zu erkunden, der Wavelet-Transformationen und ein Multitasking-Selbstaufmerksamkeitsmodell kombiniert, um die Reaktionsfähigkeit und Genauigkeit von Prognosen unter volatilen Marktbedingungen zu verbessern. Die Wavelet-Transformation ermöglicht die Zerlegung der Renditen von Vermögenswerten in hohe und niedrige Frequenzen, wodurch langfristige Markttrends und kurzfristige Schwankungen sorgfältig erfasst werden.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein hybrider Handelsrahmen mit prädiktiver Kodierung (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Ein hybrider Handelsrahmen mit prädiktiver Kodierung (letzter Teil)

Wir setzen unsere Untersuchung des hybriden Handelssystems StockFormer fort, das prädiktive Kodierungs- und Verstärkungslernalgorithmen für die Analyse von Finanzzeitreihen kombiniert. Das System basiert auf drei Transformer-Zweigen mit einem diversifizierten Mehrkopf-Aufmerksamkeitsmechanismus (DMH-Attn), der die Erfassung komplexer Muster und Abhängigkeiten zwischen Assets ermöglicht. Zuvor haben wir uns mit den theoretischen Aspekten des Frameworks vertraut gemacht und die DMH-Attn-Mechanismus implementiert. Heute werden wir über die Modellarchitektur und das Training sprechen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein hybrider Handelsrahmen mit prädiktiver Kodierung (StockFormer) veröffentlicht
Neuronale Netze im Handel: Ein hybrider Handelsrahmen mit prädiktiver Kodierung (StockFormer)

In diesem Artikel wird das hybride Handelssystem StockFormer vorgestellt, das die Algorithmen von Predictive Coding und dem Reinforcement Learning (RL) kombiniert. Das Framework verwendet 3 Transformer-Zweige mit einem integrierten Diversified Multi-Head Attention (DMH-Attn)-Mechanismus, der das ursprüngliche Aufmerksamkeitsmodul mit einem mehrköpfigen Block des Vorwärtsdurchlaufs verbessert und es ermöglicht, diverse Zeitreihenmuster über verschiedene Teilräume hinweg zu erfassen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Ensemble von Agenten mit Aufmerksamkeitsmechanismen (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Ein Ensemble von Agenten mit Aufmerksamkeitsmechanismen (letzter Teil)

Im vorangegangenen Artikel haben wir das adaptive System MASAAT der Multi-Agenten vorgestellt, das ein Ensemble von Agenten verwendet, um eine Kreuzanalyse von multimodalen Zeitreihen auf verschiedenen Datenskalen durchzuführen. Heute werden wir die Ansätze dieses Rahmens in MQL5 weiter umsetzen und diese Arbeit zu einem logischen Abschluss bringen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Ensemble von Agenten mit Aufmerksamkeitsmechanismen (MASAAT) veröffentlicht
Neuronale Netze im Handel: Ein Ensemble von Agenten mit Aufmerksamkeitsmechanismen (MASAAT)

Wir stellen das Multi-Agent Self-Adaptive Portfolio Optimization Framework (MASAAT) vor, das Aufmerksamkeitsmechanismen und Zeitreihenanalyse kombiniert. MASAAT generiert eine Reihe von Agenten, die Preisreihen und Richtungsänderungen analysieren und so die Identifizierung signifikanter Fluktuationen in Vermögenspreisen auf verschiedenen Detailebenen ermöglichen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein Multi-Agent Self-Adaptive Modell (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Ein Multi-Agent Self-Adaptive Modell (letzter Teil)

Im vorangegangenen Artikel haben wir das adaptive Multi-Agenten-System MASA vorgestellt, das Reinforcement-Learning-Ansätze und selbstanpassende Strategien kombiniert und so ein harmonisches Gleichgewicht zwischen Rentabilität und Risiko unter turbulenten Marktbedingungen ermöglicht. Wir haben die Funktionalität der einzelnen Agenten in diesem Rahmen aufgebaut. In diesem Artikel setzen wir die begonnene Arbeit fort und bringen sie zu einem logischen Abschluss.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein selbstanpassendes Multi-Agenten-Modell (MASA) veröffentlicht
Neuronale Netze im Handel: Ein selbstanpassendes Multi-Agenten-Modell (MASA)

Ich lade Sie ein, sich mit dem Multi-Agent Self-Adaptive (MASA) Framework vertraut zu machen, das Reinforcement Learning und adaptive Strategien kombiniert und ein harmonisches Gleichgewicht zwischen Rentabilität und Risikomanagement unter turbulenten Marktbedingungen bietet.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Parametereffizienter Transformer mit segmentierter Aufmerksamkeit (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Parametereffizienter Transformer mit segmentierter Aufmerksamkeit (letzter Teil)

In der vorangegangenen Arbeit haben wir die theoretischen Aspekte des PSformer-Rahmens erörtert, der zwei wichtige Neuerungen in der klassischen Transformer-Architektur beinhaltet: den Parameter-Shared (PS)-Mechanismus und die Berücksichtigung von räumlich-zeitlichen Segmenten (SegAtt). In diesem Artikel setzen wir die Arbeit fort, die wir bei der Implementierung der vorgeschlagenen Ansätze mit MQL5 begonnen haben.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Ein parameter-effizienter Transformer mit segmentierter Aufmerksamkeit (PSformer) veröffentlicht
Neuronale Netze im Handel: Ein parameter-effizienter Transformer mit segmentierter Aufmerksamkeit (PSformer)

In diesem Artikel wird das neue PSformer-Framework vorgestellt, das die Architektur des einfachen Transformers an die Lösung von Problemen im Zusammenhang mit multivariaten Zeitreihenprognosen anpasst. Der Rahmen basiert auf zwei wichtigen Innovationen: dem Parameter-Sharing-Mechanismus (PS) und der Segment Attention (SegAtt).

youwei_qing
youwei_qing 2025.04.21
I noticed that the feedForward method with the second input parameter isn't working at all. Could this be an issue? virtual bool feedForward(CNeuronBaseOCL *NeuronOCL); virtual bool feedForward(CNeuronBaseOCL *NeuronOCL, CBufferFloat *SecondInput) { return feedForward(NeuronOCL); }
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Verbesserung des Wirkungsgrads der Transformer durch Verringerung der Schärfe (letzter Teil) veröffentlicht
Neuronale Netze im Handel: Verbesserung des Wirkungsgrads der Transformer durch Verringerung der Schärfe (letzter Teil)

SAMformer bietet eine Lösung für die wichtigsten Nachteile von Transformer-Modellen in der langfristigen Zeitreihenprognose, wie z. B. die Komplexität des Trainings und die schlechte Generalisierung auf kleinen Datensätzen. Die flache Architektur und die auf Schärfe ausgerichtete Optimierung helfen, suboptimale lokale Minima zu vermeiden. In diesem Artikel werden wir die Umsetzung von Ansätzen mit MQL5 fortsetzen und ihren praktischen Wert bewerten.