Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Information
12+ Jahre
Erfahrung
0
Produkte
0
Demoversionen
134
Jobs
0
Signale
0
Abonnenten
X
Professional programming of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Transformer für die Punktwolke (Pointformer) veröffentlicht
Neuronale Netze im Handel: Transformer für die Punktwolke (Pointformer)

In diesem Artikel geht es um Algorithmen für die Verwendung von Aufmerksamkeitsmethoden zur Lösung von Problemen bei der Erkennung von Objekten in einer Punktwolke. Die Erkennung von Objekten in Punktwolken ist für viele reale Anwendungen wichtig.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Hierarchisches Lernen der Merkmale von Punktwolken veröffentlicht
Neuronale Netze im Handel: Hierarchisches Lernen der Merkmale von Punktwolken

Wir untersuchen weiterhin Algorithmen zur Extraktion von Merkmalen aus einer Punktwolke. In diesem Artikel werden wir uns mit den Mechanismen zur Steigerung der Effizienz der PointNet-Methode vertraut machen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Punktwolkenanalyse (PointNet) veröffentlicht
Neuronale Netze im Handel: Punktwolkenanalyse (PointNet)

Die direkte Analyse von Punktwolken vermeidet unnötiges Datenwachstum und verbessert die Leistung von Modellen bei Klassifizierungs- und Segmentierungsaufgaben. Solche Ansätze zeigen eine hohe Leistungsfähigkeit und Robustheit gegenüber Störungen in den Originaldaten.

Kamilla Sayfutdinova
Kamilla Sayfutdinova 2024.09.02
Было бы интересно послушать ваше мнение о модели LSTM
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Hierarchische Vektortransformer (Letzter Teil) veröffentlicht
Neuronale Netze im Handel: Hierarchische Vektortransformer (Letzter Teil)

Wir fahren fort mit der Untersuchung der Methode der hierarchischen Vektortransformation. In diesem Artikel werden wir die Konstruktion des Modells abschließen. Wir werden es auch anhand echter historischer Daten trainieren und testen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Hierarchische Vektortransformer (HiVT) veröffentlicht
Neuronale Netze im Handel: Hierarchische Vektortransformer (HiVT)

Wir laden Sie ein, die Methode Hierarchical Vector Transformer (HiVT) kennenzulernen, die für die schnelle und genaue Vorhersage von multimodalen Zeitreihen entwickelt wurde.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Vereinheitlichtes Trajektoriengenerierungsmodell (UniTraj) veröffentlicht
Neuronale Netze im Handel: Vereinheitlichtes Trajektoriengenerierungsmodell (UniTraj)

Das Verständnis des Agentenverhaltens ist in vielen verschiedenen Bereichen wichtig, aber die meisten Methoden konzentrieren sich nur auf eine der Aufgaben (Verstehen, Rauschunterdrückung oder Vorhersage), was ihre Effektivität in realen Szenarien verringert. In diesem Artikel werden wir uns mit einem Modell vertraut machen, das sich an die Lösung verschiedener Probleme anpassen lässt.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Eine komplexe Methode zur Vorhersage einer Trajektorie (Traj-LLM) veröffentlicht
Neuronale Netze im Handel: Eine komplexe Methode zur Vorhersage einer Trajektorie (Traj-LLM)

In diesem Artikel möchte ich Ihnen eine interessante Methode zur Vorhersage von Trajektorien vorstellen, die zur Lösung von Problemen im Bereich der autonomen Fahrzeugbewegungen entwickelt wurde. Die Autoren der Methode haben die besten Elemente verschiedener architektonischer Lösungen kombiniert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Zustandsraummodelle veröffentlicht
Neuronale Netze im Handel: Zustandsraummodelle

Ein Großteil der bisher untersuchten Modelle basiert auf der Transformer-Architektur. Bei langen Sequenzen können sie jedoch ineffizient sein. In diesem Artikel werden wir uns mit einer alternativen Richtung der Zeitreihenprognose auf der Grundlage von Zustandsraummodellen vertraut machen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Einspeisung globaler Informationen in unabhängige Kanäle (InjectTST) veröffentlicht
Neuronale Netze im Handel: Einspeisung globaler Informationen in unabhängige Kanäle (InjectTST)

Die meisten modernen Methoden zur multimodalen Zeitreihenprognose verwenden den Ansatz unabhängiger Kanäle. Dabei wird die natürliche Abhängigkeit verschiedener Kanäle derselben Zeitreihe ignoriert. Der intelligente Einsatz zweier Ansätze (unabhängige und gemischte Kanäle) ist der Schlüssel zur Verbesserung der Leistung der Modelle.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Praktische Ergebnisse der Methode TEMPO veröffentlicht
Neuronale Netze im Handel: Praktische Ergebnisse der Methode TEMPO

Wir beschäftigen uns weiter mit TEMPO. In diesem Artikel werden wir die tatsächliche Wirksamkeit der vorgeschlagenen Ansätze anhand realer historischer Daten bewerten.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Verwenden von Sprachmodellen für die Zeitreihenprognose veröffentlicht
Neuronale Netze im Handel: Verwenden von Sprachmodellen für die Zeitreihenprognose

Wir untersuchen weiterhin Modelle zur Zeitreihenprognose. In diesem Artikel machen wir uns mit einem komplexen Algorithmus vertraut, der auf der Verwendung eines vortrainierten Sprachmodells basiert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Leichtgewichtige Modelle für die Zeitreihenprognose veröffentlicht
Neuronale Netze im Handel: Leichtgewichtige Modelle für die Zeitreihenprognose

Leichtgewichtige Modelle zur Zeitreihenprognose erzielen eine hohe Leistung mit einer minimalen Anzahl von Parametern. Dies wiederum reduziert den Rechenaufwand und beschleunigt die Entscheidungsfindung. Trotz ihrer Einfachheit erreichen solche Modelle eine mit komplexeren Modellen vergleichbare Prognosequalität.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Verringerung des Speicherverbrauchs mit der Adam-mini-Optimierung veröffentlicht
Neuronale Netze im Handel: Verringerung des Speicherverbrauchs mit der Adam-mini-Optimierung

Eine der Möglichkeiten zur Steigerung der Effizienz des Modelltrainings und des Konvergenzprozesses ist die Verbesserung der Optimierungsmethoden. Adam-mini ist eine adaptive Optimierungsmethode, die den grundlegenden Adam-Algorithmus verbessern soll.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Räumlich-zeitliches neuronales Netz (STNN) veröffentlicht
Neuronale Netze im Handel: Räumlich-zeitliches neuronales Netz (STNN)

In diesem Artikel werden wir über die Verwendung von Raum-Zeit-Transformationen zur effektiven Vorhersage bevorstehender Kursbewegungen sprechen. Um die numerische Vorhersagegenauigkeit in STNN zu verbessern, wird ein kontinuierlicher Aufmerksamkeitsmechanismus vorgeschlagen, der es dem Modell ermöglicht, wichtige Aspekte der Daten besser zu berücksichtigen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Das „Dual-Attention-Based Trend Prediction Model“ veröffentlicht
Neuronale Netze im Handel: Das „Dual-Attention-Based Trend Prediction Model“

Wir setzen die Diskussion über die Verwendung der stückweisen, linearen Darstellung von Zeitreihen fort, die im vorherigen Artikel begonnen wurde. Heute werden wir sehen, wie diese Methode mit anderen Ansätzen der Zeitreihenanalyse kombiniert werden kann, um die Qualität der Vorhersage des Preistrend zu verbessern.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze im Handel: Stückweise, lineare Darstellung von Zeitreihen veröffentlicht
Neuronale Netze im Handel: Stückweise, lineare Darstellung von Zeitreihen

Dieser Artikel unterscheidet sich etwas von meinen früheren Veröffentlichungen. In diesem Artikel werden wir über eine alternative Darstellung von Zeitreihen sprechen. Die stückweise, lineare Darstellung von Zeitreihen ist eine Methode zur Annäherung einer Zeitreihe durch lineare Funktionen über kleine Intervalle.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 97): Modelle mit MSFformer trainieren veröffentlicht
Neuronale Netze leicht gemacht (Teil 97): Modelle mit MSFformer trainieren

Bei der Erforschung verschiedener Modellarchitekturen wird dem Prozess des Modelltrainings oft nicht genügend Aufmerksamkeit geschenkt. In diesem Artikel möchte ich diese Lücke schließen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 96): Mehrskalige Merkmalsextraktion (MSFformer) veröffentlicht
Neuronale Netze leicht gemacht (Teil 96): Mehrskalige Merkmalsextraktion (MSFformer)

Die effiziente Extraktion und Integration von langfristigen Abhängigkeiten und kurzfristigen Merkmalen ist nach wie vor eine wichtige Aufgabe bei der Zeitreihenanalyse. Ihr richtiges Verständnis und ihre Integration sind notwendig, um genaue und zuverlässige Prognosemodelle zu erstellen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 95): Reduzierung des Speicherverbrauchs in Transformermodellen veröffentlicht
Neuronale Netze leicht gemacht (Teil 95): Reduzierung des Speicherverbrauchs in Transformermodellen

Auf der Transformerarchitektur basierende Modelle weisen eine hohe Effizienz auf, aber ihre Verwendung wird durch hohe Ressourcenkosten sowohl in der Trainingsphase als auch während des Betriebs erschwert. In diesem Artikel schlage ich vor, sich mit Algorithmen vertraut zu machen, die es ermöglichen, den Speicherverbrauch solcher Modelle zu reduzieren.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 94): Optimierung der Eingabereihenfolge veröffentlicht
Neuronale Netze leicht gemacht (Teil 94): Optimierung der Eingabereihenfolge

Wenn wir mit Zeitreihen arbeiten, verwenden wir die Quelldaten immer in ihrer historischen Reihenfolge. Aber ist das die beste Option? Es besteht die Meinung, dass eine Änderung der Reihenfolge der Eingabedaten die Effizienz der trainierten Modelle verbessern wird. In diesem Artikel lade ich Sie ein, sich mit einer der Methoden zur Optimierung der Eingabereihenfolge vertraut zu machen.