Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1117

 
itslek:

Eigentlich ist es genau andersherum...

besser ein schlechterer Algorithmus mit mehr Beispielen als ein guter Algorithmus mit weniger Daten.

auch 1000 ist nicht genug, vor allem für den Markt...

Gut, da Sie neu sind, erkläre ich es Ihnen separat...

40 Proben meiner Probe entsprechen etwa einem Monat Arbeit an TF M15. Was spricht dagegen, das Modell an monatlichen Stichproben zu trainieren, damit es mindestens 2 Wochen auf dem Markt funktioniert? Es gibt keinen Gral und eine wöchentliche Optimierung ist ganz normal, ganz zu schweigen von einer Optimierung alle vierzehn Tage.

Aber Maksimka trainiert seine Modelle ein Jahr lang oder länger und glänzt deshalb nicht ....

 
SanSanych Fomenko:

Nicht schlechte Ergebnisse bei der Vorhersagefähigkeit werden NICHT zu stabilen Modellen führen, da die Anzahl der Beobachtungen = 51 einfach lächerlich ist. Wir brauchen mindestens 10-mal so viele, besser 100-mal so viele.

SanSanych, erklären Sie einem Dummkopf, warum ein Klassifikator Vorhersagekraft braucht?

 
SanSanych Fomenko:

Nicht schlechte Ergebnisse bei der Vorhersagefähigkeit werden NICHT zu stabilen Modellen führen, da die Anzahl der Beobachtungen = 51 einfach lächerlich ist. Wir brauchen mindestens das 10-fache, besser das 100-fache dieser Zahl.

Wenn man Modelle auf dieser Anzahl von Beobachtungen aufbaut, sind die Ergebnisse miserabel.


Vorhersage

Tatsächlich [0,0] (0,1] Fehler

[0,0] 42.9 28.6 40

(0,1] 28.6 0.0 100


Gesamtfehler: 57,1%, durchschnittlicher Klassenfehler: 70%


Rassel Zeitstempel: 2018-10-18 21:29:39 Benutzer

======================================================================

Fehlermatrix für das lineare Modell auf Mic1.txt [validieren] (Zählungen):


Vorhersage

Tatsächlicher [0,0] (0,1) Fehler

[0,0] 1 4 80

(0,1] 2 0 100


Fehlermatrix für das lineare Modell auf Mic1.txt [validieren] (Proportionen):


Vorhersage

Tatsächlich [0,0] (0,1] Fehler

[0,0] 14.3 57.1 80

(0,1] 28.6 0.0 100


Gesamtfehler: 85,7%, durchschnittlicher Klassenfehler: 90%


Rassel Zeitstempel: 2018-10-18 21:29:39 Benutzer

======================================================================

Fehlermatrix für das Modell des Neuronalen Netzes auf Mic1.txt [validieren] (Anzahl):


Vorhersage

Tatsächlicher [0,0] (0,1) Fehler

[0,0] 2 3 60

(0,1] 1 1 50


Fehlermatrix für das Modell des Neuronalen Netzes auf Mic1.txt [validieren] (Proportionen):


Vorhersage

Tatsächlich [0,0] (0,1] Fehler

[0,0] 28.6 42.9 60

(0,1] 14.3 14.3 50


Gesamtfehler: 57,1%, durchschnittlicher Klassenfehler: 55%


Rassel Zeitstempel: 2018-10-18 21:29:39 Benutzer

Ich hoffe, Sie versuchen nicht, den Ausgang vorherzusagen???? Er ist bereits vorhergesagt, wir müssen ihm nur so nahe wie möglich kommen. Es besteht keine Notwendigkeit, dies vorherzusagen....

 
Yuriy Asaulenko:

Was ist KI?

Künstliche Intelligenz.

Sanych, was ist mit dem Ergebnis des Tests? Wie verhält sich das Modell???

Übrigens, wenn Sie Rattle benutzen, sollten Sie das lieber lassen. Ich kann es selbst ausführen.... interessant, die Ergebnisse Ihrer geheimen KI-Modelle zu sehen :-)

 
Mihail Marchukajtes:

Künstliche Intelligenz.

А,... Nutzt ihr schon AI? Und wir sitzen alle in der KI.

 
Yuriy Asaulenko:

А,... Nutzt ihr schon AI? Und wir sitzen alle auf AI.

Ich bin überrascht über Ihre Unkenntnis zu diesem Thema. Das ist das Gleiche. MO = AI Maschinelles Lernen = Künstliche Intelligenz.

 
Mihail Marchukajtes:

Was überrascht, ist Ihre Unkenntnis zu diesem Thema. Das ist das Gleiche. ME=Maschinelles Lernen=Künstliche Intelligenz.

Oh, mein Gott! Und was wissen Sie? Eigentlich sind das völlig unterschiedliche Dinge.

 
Yuriy Asaulenko:

Oh, sieh dir das an. Wer hätte das gedacht? Eigentlich ist es etwas ganz anderes.

Was ist der Unterschied? Aufklären....

 
Eidechse_:

urkomisch... mehr!))

Was halten Sie von diesen Daten?

 
Yuriy Asaulenko:

Oh, sieh dir das an. Wer hätte das gedacht? Eigentlich ist es etwas ganz anderes.

Es ist nicht wirklich anders, es ist die Evolution des maschinellen Lernens, von Assembler zu Python, sozusagen ;)

https://habr.com/post/401857/

Различия между искусственным интеллектом, машинным обучением и глубоким обучением
Различия между искусственным интеллектом, машинным обучением и глубоким обучением
  • 2025.02.17
  • habr.com
Искусственный интеллект, машинное обучение и глубокое обучение уже сейчас являются неотъемлемой частью многих предприятий. Часто эти термины используются как синонимы. Искусственный интеллект движется огромными шагами — от достижений в области беспилотных транспортных средств и способности обыгрывать человека в такие игры, как покер и Го, к...
Grund der Beschwerde: