Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3317

 
Andrey Dik #:

Bleiben Sie, wo Sie sind. Alle außer dir sind dumm, also bist du derjenige, der die Fragen beantwortet.

Was ist denn das? Was ist das für eine rote Röte da drüben? Es ist rund, rot, da unten.


So eine Grafik habe ich noch nie gesehen.

Fictionist, du denkst dir Dinge aus und erzwingst Diskussionen über Dinge, die es nicht gibt.

Es ist eigentlich normal, ein solches Diagramm von einem Modell zu erhalten, anstatt hier jahrelang herumzuplappern.

 
Auf dem globalen Tiefpunkt Ihrer Tabelle gibt es also ein enormes Übertraining, weil die Schaftkurve so weit wie möglich nach oben geht.
 
Andrey Dik #:

Verstehe ich das richtig, dass Sie sich das Lernen so vorstellen, dass Sie die Antwort einer Funktion ohne einige ihrer Bestandteile finden?

Zum Beispiel, wir haben Beobachtungen A+B+C=Y, A und B - als Prädiktoren, und C ist unbekannt, wir machen uns mit den Antworten (Aufschlag) auf die Stichprobe durch Optimierung vertraut und wählen eine Kompensation des C-Wertes, die durch Manipulationen, einschließlich Multiplikation mit Koeffizienten im Falle von NS, oder durch gegenseitige Regeln ausgedrückt werden kann. D.h. es findet eine aktive Untersuchung der Funktion statt, um die fehlenden Variablen zu ersetzen und sich der richtigen Antwort zu nähern. Es wird davon ausgegangen, dass die Ergebnisse der Funktionsberechnung in der Stichprobe so repräsentativ sind, dass das Ergebnis auf neue Daten angewendet werden kann.

Bei der Optimierung im Tester können wir jedoch die Werte der Variablen (die im Wesentlichen als Funktionen dargestellt werden) ändern, wobei wir davon ausgehen, dass wir sie nicht kennen, oder sogar wissen, welche unserer kompensatorischen Funktion in Form von Regeln, die sich den Y-Werten annähern, mehr Gewicht verleihen werden.

 

Weitere Befragung aus dem chatGPT.


Max, [26 Okt 2023, 18:59:31]:

Wie hängt das Displacement-Dispersion-Dilemma mit dem Finden eines globalen Minimums zusammen?


ChatGPT & Midjourney | AI bot, [26 Okt 2023, 18:59:38]:

Das Bias-Dispersions-Dilemma bezieht sich auf das Modellauswahlproblem beim maschinellen Lernen. Es besagt, dass mit zunehmender Komplexität des Modells (z. B. durch Hinzufügen neuer Merkmale oder Erhöhung der Anzahl der Parameter) die Varianz (Streuung) der Modellvorhersagen zunimmt, wobei jedoch eine Tendenz (Fehler) zu einfacheren Modellen bestehen kann.


Andererseits bezieht sich die Suche nach dem globalen Minimum auf die Optimierung der Parameter des Modells. Das Ziel besteht darin, Parameterwerte zu wählen, bei denen der minimale Wert der Fehlerfunktion erreicht wird. Bei einer großen Anzahl von Parametern und der Komplexität des Modells kann es jedoch schwierig oder sogar unmöglich sein, das globale Minimum zu finden.


Das Bias-Dispersions-Dilemma und die Suche nach einem globalen Minimum hängen also insofern zusammen, als die Auswahl eines zu komplexen Modells für ein Problem des maschinellen Lernens zu einem Übertrainingsproblem (hohe Varianz) führen kann, während die Verwendung eines zu einfachen Modells zu einem Untertrainingsproblem (hohe Verzerrung) führen kann. Dies kann die Suche nach dem globalen Minimum erschweren und zu suboptimalen Ergebnissen führen. Daher ist es wichtig, ein Gleichgewicht zwischen der Komplexität des Modells und seiner Fähigkeit zur Generalisierung der Daten zu finden, um optimale Ergebnisse zu erzielen.

 

Max, [26 Okt 2023, 19:03:50]:

Das optimale Modell sollte in diesem Fall dem globalen Minimum entsprechen, oder nicht?


ChatGPT & Midjourney | AI bot, [26 Okt 2023, 19:03:54]:

Nein, das optimale Modell entspricht nicht unbedingt dem globalen Minimum. In einigen Fällen, insbesondere bei Vorhandensein von Rauschen in den Daten, kann das globale Minimum durch Umlernen des Modells erreicht werden. Ein solches Modell kann eine hohe Genauigkeit bei den Trainingsdaten aufweisen, aber die Daten nur schlecht auf neue Beispiele verallgemeinern.


Stattdessen sollte das optimale Modell in der Nähe des globalen Minimums liegen, aber eine geringe Varianz und Verzerrung aufweisen. Ein solches Modell wird stabile und genaue Vorhersagen für neue Daten liefern. Daher ist es wichtig, bei der Auswahl des optimalen Modells nicht nur die Genauigkeit des Modells bei den Trainingsdaten zu berücksichtigen, sondern auch seine Fähigkeit zur Verallgemeinerung auf neue Beispiele.

 
Aleksey Vyazmikin #:

Verstehe ich das richtig, dass Sie Lernen als das Finden der Antwort einer Funktion ohne einige ihrer Glieder darstellen?

Zum Beispiel, wir haben Beobachtungen A+B+C=Y, A und B - als Prädiktoren, und C ist unbekannt, wir machen uns mit den Antworten (Aufschlag) auf die Stichprobe durch Optimierung vertraut und wählen eine Kompensation des C-Wertes, die durch Manipulationen, einschließlich Multiplikation mit Koeffizienten im Falle von NS, oder durch gegenseitige Regeln ausgedrückt werden kann. D.h. es findet eine aktive Untersuchung der Funktion statt, um die fehlenden Variablen zu ersetzen und sich der richtigen Antwort zu nähern. Es wird auch davon ausgegangen, dass die Ergebnisse der Funktionsberechnung in der Stichprobe repräsentativ genug sind, um das Ergebnis auf neue Daten anwenden zu können.

Im Falle der Optimierung im Tester können wir jedoch die Werte der Variablen ändern (sie im Wesentlichen als Funktionen darstellen), wobei wir davon ausgehen, dass wir sie nicht kennen, oder sogar wissen, welche unserer kompensatorischen Funktion in Form von Regeln, die sich den Y-Werten annähern, mehr Gewicht verleihen werden.

Ich verstehe die Frage nicht ganz. Bitte klären Sie das.

 
Maxim Dmitrievsky chatGPT befragen.


Max, [26 Okt 2023, 18:59:31]:

Wie hängt das Displacement-Dispersion-Dilemma mit der Suche nach einem globalen Minimum zusammen?


ChatGPT & Midjourney | AI bot, [26 Okt 2023, 18:59:38]:

Das Bias-Dispersions-Dilemma bezieht sich auf das Modellauswahlproblem beim maschinellen Lernen. Es besagt, dass mit zunehmender Modellkomplexität (z. B. durch Hinzufügen neuer Merkmale oder Erhöhung der Anzahl von Parametern) die Varianz (Streuung) der Modellvorhersagen zunimmt, wobei jedoch eine Tendenz (Fehler) zu einfacheren Modellen bestehen kann.

Wie wird vorgeschlagen, die Varianz (Streuung) des Fehlers bei der Klassifizierung und nicht bei der Regression zu berücksichtigen?

 
Maxim Dmitrievsky #:

Max, [26 Oct 2023, 19:03:50]:

Das optimale Modell sollte in diesem Fall dem globalen Minimum entsprechen, oder nicht?


ChatGPT & Midjourney | AI bot, [26 Okt 2023, 19:03:54]:

Nein, das optimale Modell entspricht nicht unbedingt dem globalen Minimum. In einigen Fällen, insbesondere bei Vorhandensein von Rauschen in den Daten, kann das globale Minimum erreicht werden, indem das Modell neu trainiert wird. Ein solches Modell kann eine hohe Genauigkeit bei den Trainingsdaten aufweisen, aber eine schlechte Generalisierung der Daten auf neue Beispiele.


Stattdessen sollte das optimale Modell in der Nähe des globalen Minimums liegen, aber eine geringe Varianz und Verzerrung aufweisen. Ein solches Modell wird stabile und genaue Vorhersagen für neue Daten liefern. Daher ist es wichtig, bei der Auswahl des optimalen Modells nicht nur die Genauigkeit des Modells bei den Trainingsdaten zu berücksichtigen, sondern auch seine Fähigkeit zur Verallgemeinerung auf neue Beispiele.

Fragen Sie GPT, wann sollten Sie mit dem Training aufhören? Diese Frage haben Sie selbst noch nicht beantwortet.

 
Andrey Dik #:

Ich verstehe die Frage nicht ganz. Bitte klären Sie das.

Meine Berechnungen sind also nicht korrekt und die Antwort lautet "nein" - Sie haben eine andere Vorstellung von dem Prozess.

Grund der Beschwerde: