Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Information
12+ Jahre
Erfahrung
0
Produkte
0
Demoversionen
134
Jobs
0
Signale
0
Abonnenten
X
Professional programming of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 90): Frequenzinterpolation von Zeitreihen (FITS) veröffentlicht
Neuronale Netze leicht gemacht (Teil 90): Frequenzinterpolation von Zeitreihen (FITS)

Durch die Untersuchung der FEDformer-Methode haben wir die Tür zum Frequenzbereich der Zeitreihendarstellung geöffnet. In diesem neuen Artikel werden wir das begonnene Thema fortsetzen. Wir werden uns mit einer Methode befassen, mit der wir nicht nur eine Analyse durchführen, sondern auch spätere Zustände in einem bestimmten Bereich vorhersagen können.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 89): Transformer zur Frequenzzerlegung (FEDformer) veröffentlicht
Neuronale Netze leicht gemacht (Teil 89): Transformer zur Frequenzzerlegung (FEDformer)

Alle Modelle, die wir bisher betrachtet haben, analysieren den Zustand der Umwelt als Zeitfolge. Die Zeitreihen können aber auch in Form von Häufigkeitsmerkmalen dargestellt werden. In diesem Artikel stelle ich Ihnen einen Algorithmus vor, der Frequenzkomponenten einer Zeitsequenz zur Vorhersage zukünftiger Zustände verwendet.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 88): Zeitreihen-Dense-Encoder (TiDE) veröffentlicht
Neuronale Netze leicht gemacht (Teil 88): Zeitreihen-Dense-Encoder (TiDE)

In dem Bestreben, möglichst genaue Prognosen zu erhalten, verkomplizieren die Forscher häufig die Prognosemodelle. Dies wiederum führt zu höheren Kosten für Training und Wartung der Modelle. Ist eine solche Erhöhung immer gerechtfertigt? In diesem Artikel wird ein Algorithmus vorgestellt, der die Einfachheit und Schnelligkeit linearer Modelle nutzt und Ergebnisse liefert, die mit den besten Modellen mit einer komplexeren Architektur vergleichbar sind.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 87): Zeitreihen-Patching veröffentlicht
Neuronale Netze leicht gemacht (Teil 87): Zeitreihen-Patching

Die Vorhersage spielt eine wichtige Rolle in der Zeitreihenanalyse. Im neuen Artikel werden wir über die Vorteile des Zeitreihen-Patchings sprechen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 86): U-förmiger Transformator veröffentlicht
Neuronale Netze leicht gemacht (Teil 86): U-förmiger Transformator

Wir untersuchen weiterhin Algorithmen für die Zeitreihenprognose. In diesem Artikel werden wir eine andere Methode besprechen: den U-förmigen Transformator.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 85): Multivariate Zeitreihenvorhersage veröffentlicht
Neuronale Netze leicht gemacht (Teil 85): Multivariate Zeitreihenvorhersage

In diesem Artikel möchte ich Ihnen eine neue komplexe Methode zur Zeitreihenprognose vorstellen, die die Vorteile von linearen Modellen und Transformer harmonisch vereint.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 84): Umkehrbare Normalisierung (RevIN) veröffentlicht
Neuronale Netze leicht gemacht (Teil 84): Umkehrbare Normalisierung (RevIN)

Wir wissen bereits, dass die Vorverarbeitung der Eingabedaten eine wichtige Rolle für die Stabilität der Modellbildung spielt. Für die Online-Verarbeitung von „rohen“ Eingabedaten verwenden wir häufig eine Batch-Normalisierungsschicht. Aber manchmal brauchen wir ein umgekehrtes Verfahren. In diesem Artikel wird einer der möglichen Ansätze zur Lösung dieses Problems erörtert.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 83): Der „Conformer“-Algorithmus für räumlich-zeitliche kontinuierliche Aufmerksamkeitstransformation veröffentlicht
Neuronale Netze leicht gemacht (Teil 83): Der „Conformer“-Algorithmus für räumlich-zeitliche kontinuierliche Aufmerksamkeitstransformation

In diesem Artikel wird der Conformer-Algorithmus vorgestellt, der ursprünglich für die Wettervorhersage entwickelt wurde, die in Bezug auf Variabilität und Launenhaftigkeit mit den Finanzmärkten verglichen werden kann. Conformer ist eine komplexe Methode. Es kombiniert die Vorteile von Aufmerksamkeitsmodellen und gewöhnlichen Differentialgleichungen.

Look Mode
Look Mode 2024.03.30
Здравствуйте, как эти файлы попробовать (тестировать) из файлы Comformer?
Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 82): Modelle für gewöhnliche Differentialgleichungen (NeuralODE) veröffentlicht
Neuronale Netze leicht gemacht (Teil 82): Modelle für gewöhnliche Differentialgleichungen (NeuralODE)

In diesem Artikel werden wir eine andere Art von Modellen erörtern, die auf die Untersuchung der Dynamik des Umgebungszustands abzielen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 81): Kontextgesteuerte Bewegungsanalyse (CCMR) veröffentlicht
Neuronale Netze leicht gemacht (Teil 81): Kontextgesteuerte Bewegungsanalyse (CCMR)

In früheren Arbeiten haben wir immer den aktuellen Zustand der Umwelt bewertet. Gleichzeitig blieb die Dynamik der Veränderungen bei den Indikatoren immer „hinter den Kulissen“. In diesem Artikel möchte ich Ihnen einen Algorithmus vorstellen, mit dem Sie die direkte Veränderung der Daten zwischen 2 aufeinanderfolgenden Umweltzuständen bewerten können.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 80): Graph Transformer Generative Adversarial Model (GTGAN) veröffentlicht
Neuronale Netze leicht gemacht (Teil 80): Graph Transformer Generative Adversarial Model (GTGAN)

In diesem Artikel werde ich mich mit dem GTGAN-Algorithmus vertraut machen, der im Januar 2024 eingeführt wurde, um komplexe Probleme der Generierung von Architekturlayouts mit Graphenbeschränkungen zu lösen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 79): Feature Aggregated Queries (FAQ) im Kontext des Staates veröffentlicht
Neuronale Netze leicht gemacht (Teil 79): Feature Aggregated Queries (FAQ) im Kontext des Staates

Im vorigen Artikel haben wir eine der Methoden zur Erkennung von Objekten in einem Bild kennengelernt. Die Verarbeitung eines statischen Bildes ist jedoch etwas anderes als die Arbeit mit dynamischen Zeitreihen, wie z. B. die Dynamik der von uns analysierten Preise. In diesem Artikel werden wir uns mit der Methode der Objekterkennung in Videos befassen, die dem Problem, das wir lösen wollen, etwas näher kommt.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 78): Decoderfreier Objektdetektor mit Transformator (DFFT) veröffentlicht
Neuronale Netze leicht gemacht (Teil 78): Decoderfreier Objektdetektor mit Transformator (DFFT)

In diesem Artikel schlage ich vor, das Thema der Entwicklung einer Handelsstrategie aus einem anderen Blickwinkel zu betrachten. Wir werden keine zukünftigen Kursbewegungen vorhersagen, sondern versuchen, ein Handelssystem auf der Grundlage der Analyse historischer Daten aufzubauen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 77): Cross-Covariance Transformer (XCiT) veröffentlicht
Neuronale Netze leicht gemacht (Teil 77): Cross-Covariance Transformer (XCiT)

In unseren Modellen verwenden wir häufig verschiedene Aufmerksamkeitsalgorithmen. Und am häufigsten verwenden wir wahrscheinlich Transformers. Ihr größter Nachteil ist der Ressourcenbedarf. In diesem Artikel wird ein neuer Algorithmus vorgestellt, der dazu beitragen kann, die Rechenkosten ohne Qualitätseinbußen zu senken.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 76): Erforschung verschiedener Interaktionsmuster mit Multi-Future Transformer veröffentlicht
Neuronale Netze leicht gemacht (Teil 76): Erforschung verschiedener Interaktionsmuster mit Multi-Future Transformer

Dieser Artikel setzt das Thema der Vorhersage der kommenden Kursentwicklung fort. Ich lade Sie ein, sich mit der Architektur eines Multi-Future Transformers vertraut zu machen. Die Hauptidee besteht darin, die multimodale Verteilung der Zukunft in mehrere unimodale Verteilungen zu zerlegen, was es ermöglicht, verschiedene Modelle der Interaktion zwischen Agenten auf der Szene effektiv zu simulieren.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 75): Verbesserung der Leistung von Modellen zur Vorhersage einer Trajektorie veröffentlicht
Neuronale Netze leicht gemacht (Teil 75): Verbesserung der Leistung von Modellen zur Vorhersage einer Trajektorie

Die Modelle, die wir erstellen, werden immer größer und komplexer. Dies erhöht nicht nur die Kosten für ihr Training, sondern auch für ihren Betrieb. Die Zeit, die für eine Entscheidung benötigt wird, ist jedoch oft entscheidend. In diesem Zusammenhang sollten wir Methoden zur Optimierung der Modellleistung ohne Qualitätseinbußen in Betracht ziehen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 74): Trajektorienvorhersage mit Anpassung veröffentlicht
Neuronale Netze leicht gemacht (Teil 74): Trajektorienvorhersage mit Anpassung

In diesem Artikel wird eine recht effektive Methode zur Vorhersage der Trajektorie von Multi-Agenten vorgestellt, die sich an verschiedene Umweltbedingungen anpassen kann.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 73): AutoBots zur Vorhersage von Kursbewegungen veröffentlicht
Neuronale Netze leicht gemacht (Teil 73): AutoBots zur Vorhersage von Kursbewegungen

Wir fahren fort mit der Erörterung von Algorithmen für das Training von Trajektorievorhersagemodellen. In diesem Artikel werden wir uns mit einer Methode namens „AutoBots“ vertraut machen.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 72): Entwicklungsvorhersage in verrauschten Umgebungen veröffentlicht
Neuronale Netze leicht gemacht (Teil 72): Entwicklungsvorhersage in verrauschten Umgebungen

Die Qualität der Vorhersage zukünftiger Zustände spielt eine wichtige Rolle bei der Methode des Goal-Conditioned Predictive Coding, die wir im vorherigen Artikel besprochen haben. In diesem Artikel möchte ich Ihnen einen Algorithmus vorstellen, der die Vorhersagequalität in stochastischen Umgebungen, wie z. B. den Finanzmärkten, erheblich verbessern kann.

Dmitriy Gizlyk
Hat den Artikel Neuronale Netze leicht gemacht (Teil 71): Zielkonditionierte prädiktive Kodierung (Goal-Conditioned Predictive Coding, GCPC) veröffentlicht
Neuronale Netze leicht gemacht (Teil 71): Zielkonditionierte prädiktive Kodierung (Goal-Conditioned Predictive Coding, GCPC)

In früheren Artikeln haben wir die Decision-Transformer-Methode und mehrere davon abgeleitete Algorithmen besprochen. Wir haben mit verschiedenen Zielsetzungsmethoden experimentiert. Während der Experimente haben wir mit verschiedenen Arten der Zielsetzung gearbeitet. Die Studie des Modells über die frühere Trajektorie blieb jedoch immer außerhalb unserer Aufmerksamkeit. In diesem Artikel. Ich möchte Ihnen eine Methode vorstellen, die diese Lücke füllt.