Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1117
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Eigentlich ist es genau andersherum...
besser ein schlechterer Algorithmus mit mehr Beispielen als ein guter Algorithmus mit weniger Daten.
auch 1000 ist nicht genug, vor allem für den Markt...
Gut, da Sie neu sind, erkläre ich es Ihnen separat...
40 Proben meiner Probe entsprechen etwa einem Monat Arbeit an TF M15. Was spricht dagegen, das Modell an monatlichen Stichproben zu trainieren, damit es mindestens 2 Wochen auf dem Markt funktioniert? Es gibt keinen Gral und eine wöchentliche Optimierung ist ganz normal, ganz zu schweigen von einer Optimierung alle vierzehn Tage.
Aber Maksimka trainiert seine Modelle ein Jahr lang oder länger und glänzt deshalb nicht ....
Nicht schlechte Ergebnisse bei der Vorhersagefähigkeit werden NICHT zu stabilen Modellen führen, da die Anzahl der Beobachtungen = 51 einfach lächerlich ist. Wir brauchen mindestens 10-mal so viele, besser 100-mal so viele.
SanSanych, erklären Sie einem Dummkopf, warum ein Klassifikator Vorhersagekraft braucht?
Nicht schlechte Ergebnisse bei der Vorhersagefähigkeit werden NICHT zu stabilen Modellen führen, da die Anzahl der Beobachtungen = 51 einfach lächerlich ist. Wir brauchen mindestens das 10-fache, besser das 100-fache dieser Zahl.
Wenn man Modelle auf dieser Anzahl von Beobachtungen aufbaut, sind die Ergebnisse miserabel.
Vorhersage
Tatsächlich [0,0] (0,1] Fehler
[0,0] 42.9 28.6 40
(0,1] 28.6 0.0 100
Gesamtfehler: 57,1%, durchschnittlicher Klassenfehler: 70%
Rassel Zeitstempel: 2018-10-18 21:29:39 Benutzer
======================================================================
Fehlermatrix für das lineare Modell auf Mic1.txt [validieren] (Zählungen):
Vorhersage
Tatsächlicher [0,0] (0,1) Fehler
[0,0] 1 4 80
(0,1] 2 0 100
Fehlermatrix für das lineare Modell auf Mic1.txt [validieren] (Proportionen):
Vorhersage
Tatsächlich [0,0] (0,1] Fehler
[0,0] 14.3 57.1 80
(0,1] 28.6 0.0 100
Gesamtfehler: 85,7%, durchschnittlicher Klassenfehler: 90%
Rassel Zeitstempel: 2018-10-18 21:29:39 Benutzer
======================================================================
Fehlermatrix für das Modell des Neuronalen Netzes auf Mic1.txt [validieren] (Anzahl):
Vorhersage
Tatsächlicher [0,0] (0,1) Fehler
[0,0] 2 3 60
(0,1] 1 1 50
Fehlermatrix für das Modell des Neuronalen Netzes auf Mic1.txt [validieren] (Proportionen):
Vorhersage
Tatsächlich [0,0] (0,1] Fehler
[0,0] 28.6 42.9 60
(0,1] 14.3 14.3 50
Gesamtfehler: 57,1%, durchschnittlicher Klassenfehler: 55%
Rassel Zeitstempel: 2018-10-18 21:29:39 Benutzer
Ich hoffe, Sie versuchen nicht, den Ausgang vorherzusagen???? Er ist bereits vorhergesagt, wir müssen ihm nur so nahe wie möglich kommen. Es besteht keine Notwendigkeit, dies vorherzusagen....
Was ist KI?
Künstliche Intelligenz.
Sanych, was ist mit dem Ergebnis des Tests? Wie verhält sich das Modell???
Übrigens, wenn Sie Rattle benutzen, sollten Sie das lieber lassen. Ich kann es selbst ausführen.... interessant, die Ergebnisse Ihrer geheimen KI-Modelle zu sehen :-)
Künstliche Intelligenz.
А,... Nutzt ihr schon AI? Und wir sitzen alle in der KI.
А,... Nutzt ihr schon AI? Und wir sitzen alle auf AI.
Ich bin überrascht über Ihre Unkenntnis zu diesem Thema. Das ist das Gleiche. MO = AI Maschinelles Lernen = Künstliche Intelligenz.
Was überrascht, ist Ihre Unkenntnis zu diesem Thema. Das ist das Gleiche. ME=Maschinelles Lernen=Künstliche Intelligenz.
Oh, mein Gott! Und was wissen Sie? Eigentlich sind das völlig unterschiedliche Dinge.
Oh, sieh dir das an. Wer hätte das gedacht? Eigentlich ist es etwas ganz anderes.
Was ist der Unterschied? Aufklären....
urkomisch... mehr!))
Was halten Sie von diesen Daten?
Oh, sieh dir das an. Wer hätte das gedacht? Eigentlich ist es etwas ganz anderes.
Es ist nicht wirklich anders, es ist die Evolution des maschinellen Lernens, von Assembler zu Python, sozusagen ;)
https://habr.com/post/401857/