Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3297
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich kann nicht umhin, die verblüffende Nachricht mitzuteilen (für mich so zutreffend), dass ein noch stärkerer Algorithmus als SSG gefunden wurde.
Das ist in der Tat eine gute Sache.
Sie verwechseln die Entitäten. Sie versuchen, die Optimierung an die Annäherung anzupassen, oder umgekehrt.
Approximation und Optimierung sind unterschiedliche Ansätze zur Lösung von Problemen des maschinellen Lernens.
Wenn ich es richtig verstanden habe, ist die Approximation im Algo-Trading die Erstellung des TS selbst. Ich will Martin - erstellt, ich will Scalper - erstellt, ich will Patterns - erstellt, usw. Man kann MO-Methoden etwas erschaffen lassen.
Und Optimierung - Anpassung/Studie des bereits erstellten TS.
Da MO im Gegensatz zum Menschen durch den Number Cruncher auch an der Erstellung von TS beteiligt ist, können wir Annäherung und Optimierung kombinieren. Haben Sie das verstanden?
Wenn ich es richtig verstanden habe, ist die Annäherung beim Algo-Trading die Erstellung des TS selbst. Ich will martin - erstellt, ich will scalper - erstellt, ich will patterns - erstellt, etc. Sie können MO-Methoden anweisen, etwas zu erstellen.
Und die Optimierung ist das Tunen/Untersuchen des bereits erstellten TS.
Da MO, anders als ein Mensch, durch den Number Cruncher auch an der Erstellung von TS beteiligt ist, können wir Annäherung und Optimierung kombinieren. Ist das richtig?
Genau
Interessanterweise ist ein menschliches Gehirn (als neuronales Netzwerk) im Vergleich zu einem MO, was die Datenmenge (Zitate) angeht, wie eine Infusorie im Vergleich zu einem Menschen.
Allerdings haben primitive Menschen bewiesen, dass sie ziemlich gut funktionierende TCs erstellen können. Es hat sich herausgestellt, dass es keine riesige Datenmenge braucht, um eine funktionierende TK zu erstellen.
Es ist mir ein Rätsel, wie der Mensch zum Beispiel zu funktionierenden Scalper-Modellen gekommen ist. Das geschah fast ganz ohne Zahlenjongleure.
Das Szenario dafür muss in etwa so ausgesehen haben:
Offenbar ist das menschliche Gehirn unterbewusst in der Lage, auch bei extrem kleinen Datenmengen "Muster" zu finden. Man kann es nicht Glück nennen. Es ist ein Rätsel.
Interessanterweise ist das menschliche Gehirn (als neuronales Netz) im Vergleich zu MO, was die Datenmenge (Zitate) angeht, wie eine Infusorie im Vergleich zu einem Menschen.
Allerdings haben primitive Menschen bewiesen, dass sie ziemlich gut funktionierende TCs erstellen können. Es hat sich herausgestellt, dass keine so große Menge an Daten erforderlich ist, um eine funktionierende TK zu erstellen.
Es ist mir ein Rätsel, wie der Mensch zum Beispiel zu funktionierenden Scalper-Modellen gekommen ist. Das geschah fast ganz ohne Zahlenjongleure.
Das Szenario dafür war offenbar in etwa so:
Interessanterweise ist das menschliche Gehirn (als neuronales Netz) im Vergleich zu MO, was die Datenmenge (Zitate) angeht, wie eine Infusorie im Vergleich zu einem Menschen.
150 Milliarden Neuronen, und nicht jeweils 1 Ausgang, sondern viele. Die KI wird nicht so schnell oder jemals auf ein solches Niveau anwachsen.
NS wird vom Intelligenzniveau her mit einer Kakerlake verglichen - rennen, beißen - weglaufen.
One-Shot-Lernen. Wenn ein großes, vortrainiertes NS (Gehirn) mit nur wenigen Beispielen auf linke Daten vortrainiert wird. Wenn das Modell zunächst die Gesetze der Welt gelernt hat, kann es eine neue Aufgabe leicht mit einem flüchtigen Blick erfassen.
hier haben Sie selbst gezeigt, dass ein vortrainiertes Gehirn mit linken Daten bestimmte Probleme löst, die es vorher nicht kannte. und Sie sagen, dass zusätzliches "Wissen" nicht erforderlich ist.