Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3297

 
Andrey Dik #:

Sie haben nicht über Optimierung geschrieben, warum stochern Sie dann hier herum?
Ich habe nicht an Sie geschrieben.
Und, Lernen ist ein Spezialfall der Optimierung, merke es dir endlich.
Sanych hat alles richtig geschrieben. Es fing alles mit meiner Nachricht an. Du hast dich in den falschen Schutt geworfen.

Es stellte sich heraus, dass ich über nichts schrieb.
 
Andrey Dik #:
Ich kann nicht umhin, die verblüffende Nachricht mitzuteilen (für mich so zutreffend), dass ein noch stärkerer Algorithmus als SSG gefunden wurde.

Das ist in der Tat eine gute Sache.

 
Ausbildung ist natürlich ein weiter gefasster Begriff als Optimierung. Und es verwendet seine eigenen Bewertungskriterien.

Das Thema heißt: MOE.
 
Maxim Dmitrievsky #:
Sie verwechseln die Entitäten. Sie versuchen, die Optimierung an die Annäherung anzupassen, oder umgekehrt.

Approximation und Optimierung sind unterschiedliche Ansätze zur Lösung von Problemen des maschinellen Lernens.

Wenn ich es richtig verstanden habe, ist die Approximation im Algo-Trading die Erstellung des TS selbst. Ich will Martin - erstellt, ich will Scalper - erstellt, ich will Patterns - erstellt, usw. Man kann MO-Methoden etwas erschaffen lassen.

Und Optimierung - Anpassung/Studie des bereits erstellten TS.

Da MO im Gegensatz zum Menschen durch den Number Cruncher auch an der Erstellung von TS beteiligt ist, können wir Annäherung und Optimierung kombinieren. Haben Sie das verstanden?

 
fxsaber #:

Wenn ich es richtig verstanden habe, ist die Annäherung beim Algo-Trading die Erstellung des TS selbst. Ich will martin - erstellt, ich will scalper - erstellt, ich will patterns - erstellt, etc. Sie können MO-Methoden anweisen, etwas zu erstellen.

Und die Optimierung ist das Tunen/Untersuchen des bereits erstellten TS.

Da MO, anders als ein Mensch, durch den Number Cruncher auch an der Erstellung von TS beteiligt ist, können wir Annäherung und Optimierung kombinieren. Ist das richtig?

Genau so
 
Die Approximation durch ein Polynom hohen Grades führt zu Übertraining. Die Fehlervarianz nimmt ab, aber die Verzerrung bei den neuen Daten nimmt zu. Das ist dasselbe wie das Hinzufügen einer Vielzahl von Merkmalen. Und das sind nur die Grundlagen.
Ein neu trainiertes Modell lässt sich nicht abstimmen, es ist nicht gut verallgemeinerbar. Man kann keine Kozul-Inferenz durchführen, weil es keine Vergleiche zwischen Test- und Kontrollproben gibt. Das Modell ist in der Teststichprobe überall falsch, es ist unmöglich, eine Korrektur abzuleiten. Es ist einfacher, das Modell wegzuwerfen.
 
Maxim Dmitrievsky #:
Genau

Interessanterweise ist ein menschliches Gehirn (als neuronales Netzwerk) im Vergleich zu einem MO, was die Datenmenge (Zitate) angeht, wie eine Infusorie im Vergleich zu einem Menschen.

Allerdings haben primitive Menschen bewiesen, dass sie ziemlich gut funktionierende TCs erstellen können. Es hat sich herausgestellt, dass es keine riesige Datenmenge braucht, um eine funktionierende TK zu erstellen.

Es ist mir ein Rätsel, wie der Mensch zum Beispiel zu funktionierenden Scalper-Modellen gekommen ist. Das geschah fast ganz ohne Zahlenjongleure.


Das Szenario dafür muss in etwa so ausgesehen haben:

  1. Ich sehe oft irgendeine Art von Abflachung (dummerweise ein paar Tage lang auf dem Bildschirm).
  2. Ich versuche, mit einem primitiven TS Geld damit zu verdienen.
  3. Es läuft nicht viel ab. Ich sollte den TS ein wenig verfeinern. Ich habe mir die Trading-Historie angeschaut - es sieht so aus, als ob etwas verbessert werden kann.
  4. Es fing an, ein wenig zu steigen. Ich wiederhole Punkt 3.
Kein Zahlenjongleur. Ich habe mir nur Punkt 1 angeschaut und angefangen, es zu tun. Die Wahrscheinlichkeit dieses Ansatzes scheint gleich Null zu sein, aber irgendwie funktioniert es. Eine Art funktionierende Wahnsinns-Methode.


Offenbar ist das menschliche Gehirn unterbewusst in der Lage, auch bei extrem kleinen Datenmengen "Muster" zu finden. Man kann es nicht Glück nennen. Es ist ein Rätsel.

 
fxsaber #:

Interessanterweise ist das menschliche Gehirn (als neuronales Netz) im Vergleich zu MO, was die Datenmenge (Zitate) angeht, wie eine Infusorie im Vergleich zu einem Menschen.

Allerdings haben primitive Menschen bewiesen, dass sie ziemlich gut funktionierende TCs erstellen können. Es hat sich herausgestellt, dass keine so große Menge an Daten erforderlich ist, um eine funktionierende TK zu erstellen.

Es ist mir ein Rätsel, wie der Mensch zum Beispiel zu funktionierenden Scalper-Modellen gekommen ist. Das geschah fast ganz ohne Zahlenjongleure.


Das Szenario dafür war offenbar in etwa so:

  1. Ich sehe oft irgendeine Art von Abflachung (ich habe ein paar Tage lang dumm am Bildschirm herumgeschliffen).
  2. Ich werde versuchen, Geld auf sie mit einem primitiven TS zu machen.
  3. Es läuft nicht viel ab. Ich sollte den TS ein wenig verfeinern. Ich habe mir die Trading-Historie angeschaut - es sieht so aus, als ob man da noch etwas verbessern könnte.
  4. Es fing an, ein wenig zu steigen. Ich wiederhole Punkt 3.
Kein Zahlenjongleur. Ich habe mir nur Punkt 1 angesehen und angefangen, es zu tun. Die Wahrscheinlichkeit dieses Ansatzes scheint gleich Null zu sein, aber irgendwie funktioniert es. Eine Art funktionierende Wahnsinns-Methode.
One-Shot-Lernen. Wenn ein großes vortrainiertes NS (Gehirn) mit nur wenigen Beispielen auf linke Daten vortrainiert wird. Wenn das Modell zunächst die Gesetze der Welt erlernt hat, kann es eine neue Aufgabe mit einem flüchtigen Blick erfassen.

Auf diese Weise werden vor allem große Sprachmodelle für neue Aufgaben vorgelernt. Zwingt man das Modell jedoch dazu, diese neuen Beispiele über einen längeren Zeitraum zu lernen, vergisst es frühere Erfahrungen und wird gegenüber neuen Daten voreingenommen.
 
fxsaber #:

Interessanterweise ist das menschliche Gehirn (als neuronales Netz) im Vergleich zu MO, was die Datenmenge (Zitate) angeht, wie eine Infusorie im Vergleich zu einem Menschen.

150 Milliarden Neuronen, und nicht jeweils 1 Ausgang, sondern viele. Die KI wird nicht so schnell oder jemals auf ein solches Niveau anwachsen.
NS wird vom Intelligenzniveau her mit einer Kakerlake verglichen - rennen, beißen - weglaufen.

 
Maxim Dmitrievsky #:
One-Shot-Lernen. Wenn ein großes, vortrainiertes NS (Gehirn) mit nur wenigen Beispielen auf linke Daten vortrainiert wird. Wenn das Modell zunächst die Gesetze der Welt gelernt hat, kann es eine neue Aufgabe leicht mit einem flüchtigen Blick erfassen.

hier haben Sie selbst gezeigt, dass ein vortrainiertes Gehirn mit linken Daten bestimmte Probleme löst, die es vorher nicht kannte. und Sie sagen, dass zusätzliches "Wissen" nicht erforderlich ist.