Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 94): Optimierung der Eingabereihenfolge"

 

Neuer Artikel Neuronale Netze leicht gemacht (Teil 94): Optimierung der Eingabereihenfolge :

Wenn wir mit Zeitreihen arbeiten, verwenden wir die Quelldaten immer in ihrer historischen Reihenfolge. Aber ist das die beste Option? Es besteht die Meinung, dass eine Änderung der Reihenfolge der Eingabedaten die Effizienz der trainierten Modelle verbessern wird. In diesem Artikel lade ich Sie ein, sich mit einer der Methoden zur Optimierung der Eingabereihenfolge vertraut zu machen.

Bei Verwendung in Transformer-Architekturmodellen ist die Wirksamkeit der Erkennung langfristiger Abhängigkeiten in hohem Maße von vielen Faktoren abhängig. Dazu gehören die Sequenzlänge, verschiedene Strategien der Positionskodierung und die Tokenisierung der Daten.

Diese Überlegungen veranlassten die Autoren des Dokuments „Segment, Shuffle, and Stitch: A Simple Mechanism for Improving Time-Series Representations“ zu der Idee, die optimale Nutzung historischer Sequenzen zu finden. Könnte es eine bessere Organisation von Zeitreihen geben, die angesichts der gestellten Aufgabe ein effizienteres Repräsentationslernen ermöglichen würde?

In diesem Artikel stellen die Autoren einen einfachen und sofort einsetzbaren Mechanismus namens Segment, Shuffle, Stitch (S3, segmentieren, mischen, zusammennähen), vor, mit dem man lernen kann, wie man die Darstellung von Zeitreihen optimiert. Wie der Name schon sagt, unterteilt S3 eine Zeitreihe in mehrere sich nicht überschneidende Segmente, mischt diese Segmente in der optimalen Reihenfolge und kombiniert die gemischten Segmente zu einer neuen Sequenz. Dabei ist zu beachten, dass die Reihenfolge der Segmentverschiebung für jede einzelne Aufgabe gelernt wird.

Autor: Dmitriy Gizlyk

 
'NeuroNet.cl' as 'const string cl_program' NeuroNet.cl 1 1
Lässt sich nicht kompilieren.
 
Eine andere Frage. Kann ich versuchen, es ohne die alten Daten auszuführen? Und in welcher Reihenfolge soll ich es ausführen?
 
Wo ist die Datei #include "legendre.mqh" zu finden?
 
star-ik #:
Wo ist die Datei #include "legendre.mqh" zu finden?

Die angegebene Bibliothek wurde in FEDformer verwendet. Für die Zwecke dieses Artikels kann die Zeile einfach gelöscht werden.

Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)
Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)
  • www.mql5.com
Все рассмотренные нами ранее модели анализируют состояние окружающей среды в виде временной последовательности. Однако, тот же временной ряд можно представить и в виде частотных характеристик. В данной статье я предлагаю вам познакомиться с алгоритмом, который использует частотные характеристики временной последовательности для прогнозирования будущих состояний.
 
Dmitriy Gizlyk #:

Die angegebene Bibliothek wurde in FEDformer verwendet. Für die Zwecke dieses Artikels kann die Zeichenfolge einfach gelöscht werden.

Dmitry Sie könnten auf meinen Kommentar unter dem vorherigen Artikel Ihrer #93 antworten