Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3082

 
Maxim Dmitrievsky #:
Sind Sie von Beruf auch Therapeutin? Nein, ich bin Vollzeit-Therapeut.

Ja, ich suche nach Klienten, möchten Sie sich anmelden?

In der Tat, Sie nehmen keine Kritik an. Sie haben etwas gesehen, das dem ähnelt, was Sie tun - mit dem Herausfiltern unangenehmer Teile der Stichprobe, was Ihrer Meinung nach Ihrem Ansatz Wissenschaftlichkeit verleiht, und jetzt verteidigen Sie ihn. Sie verteidigen ihn unter anderem, indem Sie ihn angreifen - indem Sie Ihren Gegner herabsetzen und beleidigen. Ich gebe zu, dass es in dieser Angelegenheit Fortschritte gibt - Sie sind zurückhaltender geworden - und ich kann Sie dafür sogar loben.

Gleichzeitig bezeichnen Sie meinen Vorschlag über eine gemeinsame Aktivität, also einen konstruktiven Vorschlag, der darauf abzielt, das Wissen über das untersuchte Thema zu bereichern, als Ablenkung vom Thema.

Was ist das Thema dieses Threads - die Schönheit und Einzigartigkeit der Köpfe der einzelnen Teilnehmer zu demonstrieren? Mit anderen Worten, Ihrer Meinung nach handelt es sich eher um Geplapper als um die Suche nach der Wahrheit?

 
Maxim Dmitrievsky #:
Ich bin mir über das, was ich schreibe, sehr im Klaren, sonst würde ich es nicht schreiben. Das tust du nicht. Hör auf zu zappeln, du nervst.
.
Studieren Sie das Material, dann werden wir darüber diskutieren. Wenn du es nicht schaffst - ich werde mich nicht aufregen. Es wiederzukäuen und in den Mund zu nehmen, ist etwas für andere Leute.

Maxim, ich habe vorhin die Übersetzung geworfen, die ich bekommen konnte. Von ihm, ehrlich gesagt, kam ich zu ähnlichen Schlussfolgerungen wie SanSanych Fomenko. Ich gebe zu, dass es eine verzerrte Übersetzung ist, da viele Dinge dort einfach seltsam klingen, dann sind sie Sampling-Behandlung, dann Einbau von Indikatoren ....

Deshalb schlage ich Ihnen vor, das, was niemand verstanden hat, in Ihren eigenen Worten zu erklären, zumindest in diesen Worten. Vielleicht nehme ich dann die schriftlichen Informationen anders wahr.

Hier ist ein Auszug aus der Übersetzung, ist alles klar?


 
СанСаныч Фоменко #:

Das steht nicht in dem Artikel.

Es wird die übliche Anpassung mit unterschiedlicher Aufteilung der ursprünglichen Prädiktoren, einschließlich Kreuzvalidierung, beschrieben. Eine Routine, die mit Worten getarnt wurde.

Ich habe eine Frage an die Kenner des maschinellen Lernens. Wenn ich die Daten eines Charakters zum Trainieren, die Daten eines anderen Charakters zur Validierung und die Daten eines dritten Charakters zum Testen verwende, ist das eine gute Praxis?

Außerdem erhalte ich die folgenden Ergebnisse aus den Testdaten: grüne Zellen sind sehr gut, gelbe Zellen sind gut, rote Zellen sind durchschnittlich.


Und noch eine Frage zur Modifizierung der Daten für das Training des Modells. Mir ist aufgefallen, dass das Modell Schwierigkeiten hat, Extrema zu finden, in meinem Fall Werte über 60 und Werte unter 40.
Ich finde also Werte über 60 und unter 40 in den Trainingsdaten, die ich zusätzlich zu den Trainingsdaten hinzufüge, bevor ich sie in das Modell einspeise. Die Frage ist also: Kann ich die Genauigkeit des Modells verbessern, indem ich die Trainingsdaten mit Informationen über die Extrema erhöhe?

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

#  Find indices where outputs_unique values are greater than 60
indices_greater_than_60 = np.where(outputs_unique > 0.6)

#  Get the corresponding inputs_unique and outputs_unique values
filtered_inputs_greater = inputs_unique[indices_greater_than_60]
filtered_outputs_greater = outputs_unique[indices_greater_than_60]

#  Add filtered_inputs values to inputs_unique
inputs_unique = np.concatenate((inputs_unique, filtered_inputs_greater), axis=0)
#  Add filtered_outputs values to outputs_unique
outputs_unique = np.concatenate((outputs_unique, filtered_outputs_greater), axis=0)

#  Find indices where outputs_unique values are smaller than 40
indices_smaller_than_40 = np.where(outputs_unique < 0.4)

#  Get the corresponding inputs_unique and outputs_unique values
filtered_inputs_smaller = inputs_unique[indices_smaller_than_40]
filtered_outputs_smaller = outputs_unique[indices_smaller_than_40]

#  Add filtered_inputs values to inputs_unique
inputs_unique = np.concatenate((inputs_unique, filtered_inputs_smaller), axis=0)
#  Add filtered_outputs values to outputs_unique
outputs_unique = np.concatenate((outputs_unique, filtered_outputs_smaller), axis=0)
 
Chapter 1 Introduction | An R Companion for Introduction to Data Mining
  • Michael Hahsler
  • mhahsler.github.io
1.1 Used Software This companion book assumes that you have R and RStudio Desktop installed and that you are familiar with the basics of R, how to run R code and install packages. If you are new...
[Gelöscht]  

 
Lilita Bogachkova #:

Ich habe eine Frage an Experten für maschinelles Lernen. Wenn ich die Daten eines Charakters zum Trainieren, die Daten eines anderen Charakters zur Validierung und die Daten eines dritten Charakters zum Testen verwende, ist das eine gute Praxis?

kurz NEIN.

Sie trainieren das Modell, um Wassermelonen zu erkennen, testen es auf Äpfel, validieren es auf...

 
Lilita Bogachkova #:

Ich habe eine Frage an Experten für maschinelles Lernen. Wenn ich die Daten eines Charakters zum Trainieren, die Daten eines anderen Charakters zur Validierung und die Daten eines dritten Charakters zum Testen verwende, ist das eine gute Praxis?

Versuchen Sie es mit demselben Symbol, dem Rauschen hinzugefügt wurde.

 
Rorschach #:

Versuchen Sie, dasselbe Zeichen mit zusätzlichen Geräuschen zu verwenden.

Ich denke, es ist besser, die Zeit zu verschieben, wenn es nicht Ticks ist,

Rauschen verzerrt die Daten, und Rauschen hat Parameter, und es ist nicht klar, welche zu wählen sind, und generell, warum nicht Zitate aus Rauschen machen, wie ich es kürzlich getan habe?

 
Maxim Dmitrievsky #:

Um störende Parameter in Funktionen umzuwandeln, können Sie die Ausgangswerte von RF oder eines beliebigen Basisalgorithmus verwenden, wie im Artikel beschrieben. Für die völlig Uninformierten: Ersetzen Sie die Werte der ausgewählten Parameter durch Funktionswerte. Dann wird die lineare Regression (oder ein beliebiger anderer Algorithmus) der Meta-Lerner sein, durch den der Verschmutzungseffekt bewertet wird. Warum und wie das alles funktioniert - lernen Sie die Mathematik.

Um es zu verstehen, genügt es, mit dem Kopf zu denken. Aber Sanych wird wieder anfangen, Unsinn zu machen, weil er nur etwas sagen will, ohne zu denken. Sanych, dein Mangel an Verständnis ist so groß, dass du die RF-Parameter als eine Art Beweis anführst, was absolut unglaublich ist. Ich habe Ihnen schon dreimal geschrieben, dass Sie die RF vergessen sollen. Zum letzten Mal: Studieren Sie das Thema, dann schimpfen Sie. Sonst glauben Ihnen dieselben Unwissenden blindlings.

Und antworten Sie nicht auf meine Beiträge mit dem Aplomb eines Besserwissers (was ärgerlich ist), denn Sie wissen nichts, und es sieht aus wie das Geschwätz eines Ptuschnikers.

Alle Quellenangaben sind in dem Artikel enthalten. Müssen Sie wie blinde Kätzchen bei jedem Wort angestupst werden? Oder seid ihr doch schon erwachsen?

Sie sind derjenige, der etwas anderes zitiert....

Wir haben das Modell gut trainiert, haben spontane Prädiktoren genommen und sie durch die vom Modell vorhergesagten Werte ersetzt, dann haben wir das Modell erneut trainiert. Wir vergleichen das Ergebnis über den RMSE für Regressionsmodelle/Daten. Wenn sich das Ergebnis verbessert hat, dann haben die ersetzten Prädiktoren ihre Eigenschaften während des Trainings verändert, oder was?

 
Lilita Bogachkova #:

Ich habe eine Frage an Experten für maschinelles Lernen. Wenn ich die Daten eines Charakters zum Trainieren, die Daten eines anderen Charakters zur Validierung und die Daten eines dritten Charakters zum Testen verwende, ist das eine gute Praxis?

Außerdem erhalte ich die folgenden Ergebnisse aus den Testdaten: grüne Zellen sind sehr gut, gelbe Zellen sind gut, rote Zellen sind durchschnittlich.

Ich bin kein Experte, aber ich werde meine Gedanken teilen.

Nur wenigen Menschen gelingt es, ein Modell zu entwickeln, das auf verschiedenen Zeichen erfolgreich läuft. Es ist also eine gute Leistung, wenn dies tatsächlich der Fall ist. Ich gehe davon aus, dass das Modell Muster sieht, die probabilistisch gleichermaßen realisiert sind.

Lilita Bogachkova #:

Und noch eine Frage zur Modifizierung der Daten, um das Modell zu trainieren. Mir ist aufgefallen, dass das Modell Schwierigkeiten hat, Extrema zu finden, in meinem Fall Werte über 60 und Werte unter 40.
Ich finde also Werte über 60 und unter 40 in den Trainingsdaten, die ich zusätzlich zu den Trainingsdaten hinzufüge, bevor ich sie in das Modell einspeise. Die Frage ist also: Ist es möglich, die Genauigkeit des Modells zu verbessern, indem man die Trainingsdaten mit Informationen über Extrema erhöht?

Wenn man mehr Stichproben hinzufügt, könnte das Modell ein vereinheitlichendes Muster in ihnen finden, wenn es in dem Prisma der verwendeten Prädiktoren vorhanden ist.