Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1526

 
Regression und Klassifizierung sind Aufgaben, die sowohl Wälder als auch neuronale Netze erfüllen können.
Gradientenabstieg ist eine Methode, mit der neuronale Netze Gewichte/Multiplikatoren/Verschiebungen für Neuronen auswählen.
 
elibrarius:
Regression und Klassifizierung sind Aufgaben, die sowohl Wälder als auch neuronale Netze erfüllen können.
Gradientenabstieg ist die Methode, mit der neuronale Netze Gewichte/Multiplikatoren/Verschiebungen für Neuronen auswählen.

Danke, aber das habe ich nicht gemeint.
Über die Ähnlichkeit des Endergebnisses, Regression und Gradientenabstieg.
Die Regression findet den mittleren Punkt zwischen den Nachbarn, der Gradientenabstieg findet den nächstgelegenen Punkt.
Im Wesentlichen scheint es mir, dass die Suchalgorithmen im Endergebnis ähnlich sind.
Die Differenz wäre der Abweichungsfehler. Ich frage mich also, welche Methode zu einem geringeren Fehler führen würde?
Meines Erachtens wird der Gradientenabstieg genauer sein als die Regression.

Was ich damit sagen will, ist, dass, wenn es zum Beispiel einen Lehrer gibt, die Ausgabe des Netzes eine Kopie des Lehrers sein sollte, mit minimalem Fehler.
Ich kann mich also nicht entscheiden, welches Modell ich mit welchem Algorithmus verwenden soll.

 
Roman:

Danke, aber das habe ich nicht gemeint.
Über die Ähnlichkeit des Endergebnisses, Regression und Gradientenabstieg.
Die Regression findet den Mittelpunkt zwischen den Nachbarn, der Gradientenabstieg findet den nächstmöglichen Punkt.
Im Wesentlichen scheint es mir, dass die Suchalgorithmen im Endergebnis ähnlich sind.
Die Differenz wäre der Abweichungsfehler. Ich dachte, das würde einen kleineren Fehler ergeben.
Ich denke, dass der Gradientenabstieg genauer sein wird als die Regression.

 
Maxim Dmitrievsky:

Eine andere Antwort hätte ich nicht erwartet.

 
Roman:

Danke, aber das habe ich nicht gemeint.
Über die Ähnlichkeit des Endergebnisses, Regression und Gradientenabstieg.
Die Regression findet den mittleren Punkt zwischen den Nachbarn, der Gradientenabstieg findet den nächstgelegenen Punkt.
Im Wesentlichen scheint es mir, dass die Suchalgorithmen im Endergebnis ähnlich sind.
Die Differenz wäre der Abweichungsfehler. Ich habe mich also gefragt, was einen geringeren Fehler ergeben würde?
Meines Erachtens wird der Gradientenabstieg genauer sein als die Regression.

Was ich damit sagen will, ist, dass, wenn es zum Beispiel einen Lehrer gibt, die Ausgabe des Netzes eine Kopie des Lehrers sein sollte, mit minimalem Fehler.
Ich kann mich also nicht entscheiden, welches Modell ich mit welchem Algorithmus verwenden soll.

Regression und Klassifizierung sind das Ergebnis einer Blackbox. Der Abstieg ist das, was in ihm passiert. Diese Dinge können nicht miteinander verglichen werden. Es ist wie ein Bild auf einem Fernsehschirm (das Ergebnis) und das Prinzip eines Widerstands, der sich im Inneren dieses Fernsehers befindet.

Roman:


Ich kann mich also nicht entscheiden, welches Modell ich mit welchem Algorithmus verwenden soll.

Keiner der Algorithmen ist sinnvoll. Der Markt ist SB (wenn man nur die Preise betrachtet).
MO funktioniert, wenn es ein Muster gibt. Niemand in diesem Thread hat über mehrere Jahre hinweg ein stabiles Einkommen gefunden.
Es sei denn, Sie trainieren Ihr Gehirn))

 
elibrarius:

Keiner der Algorithmen ist sinnvoll. Der Markt ist SB (wenn man nur die Preise betrachtet).
MO funktioniert, wenn es ein Muster gibt. Niemand in diesem Thread hat über mehrere Jahre hinweg etwas gefunden, das beständig Geld einbringt.
Sie trainieren nur ihr Gehirn)).

Sie können nur durch vorsichtiges Scalping und striktes Verfolgen der Haupttrends - vorheriger, aktueller und nächster - kontinuierlich verdienen.

 
elibrarius:

Regression und Klassifizierung sind das Ergebnis einer Blackbox. Der Abstieg ist das, was in ihm passiert. Diese Dinge können nicht miteinander verglichen werden. Es ist wie das Bild auf dem Fernsehbildschirm (das Ergebnis) und das Prinzip des Widerstands, der sich in diesem Fernseher befindet.

Beide Algorithmen haben keinen Sinn. Der Markt ist SB (wenn man nur die Preise betrachtet).
MO funktioniert, wenn es ein Muster gibt. Niemand in diesem Thread hat über mehrere Jahre hinweg etwas gefunden, das beständig Geld einbringt.
Sie trainieren nur ihr Gehirn)).

Danke für die Klarstellung.
Der Punkt ist, dass ich mit MO nicht vorhabe, nach Mustern in reiner Form zu suchen.
Ich versuche, ein Werkzeug zu entwickeln, mit dem man diese Muster erkennen kann.
Ich muss also den richtigen Algorithmus wählen, um den Lehrer mit einem minimalen Fehler auf den Ausgang des Netzes zu übertragen.
In diesem Fall sucht das Netz nicht nach irgendwelchen Mustern, sondern es kopiert einfach den Lehrer.

 
Roman:

Danke für die Klarstellung.
Das ist die Sache, ich habe nicht vor, mit MO nach Mustern in reiner Form zu suchen.
Ich versuche, ein Werkzeug zu entwickeln, mit dem man diese Muster erkennen kann.
Ich muss also den richtigen Algorithmus wählen, um den Lehrer mit einem minimalen Fehler auf den Ausgang des Netzes zu übertragen.
In diesem Fall sucht das Netz nicht nach irgendwelchen Regelmäßigkeiten, sondern kopiert einfach den Lehrer.

Die Vergangenheit (d. h. der Lehrer) ist sowohl dem Wald als auch dem NS gut in Erinnerung. Aber in Zukunft wird es 50/50 sein.
 
Elibrarius:

Keiner der Algorithmen ist sinnvoll. Der Markt ist SB (wenn man nur die Preise betrachtet).

MO funktioniert, wenn es ein Muster gibt. Niemand in diesem Thread hat seit mehreren Jahren etwas gefunden, das dauerhaft funktioniert.

Lass es SB sein.

Aber die SB, oder besser gesagt der Zufallsprozess, weist auch Regelmäßigkeiten auf. Wir haben sie mehr als einmal im Zweig "Von der Theorie zur Praxis" diskutiert - es ist eine stationäre Varianz, als Folge der Einstein-Smoluchowski-Gleichung und Rückkehr zum Ausgangspunkt = 66% in zweidimensionalen Spaziergang und Konvergenz zur Gauß-Verteilung einer großen Anzahl von unabhängigen Zufallsvariablen... Ja, viele Dinge... Es gibt eine ganze Theorie der Zufallsprozesse, und es ist möglich, bei SB zu gewinnen, egal was irgendjemand sagt.

Warum also versagt die MO bei dieser Aufgabe? Philosophische, konzeptionelle Frage. Ich kenne die Antwort darauf nicht...

 
Alexander_K:

Lass es SB sein.

Aber auch SB, oder besser gesagt ein Zufallsprozess, hat seine Gesetzmäßigkeiten. Wir haben sie mehr als einmal im Zweig "Von der Theorie zur Praxis" besprochen - es handelt sich um eine stationäre Varianz als Folge der Einstein-Smoluchowski-Gleichung und der Rückkehr zum Ursprung = 66% beim zweidimensionalen Wandern und der Konvergenz zur Gauß-Verteilung der Summe einer großen Anzahl von unabhängigen Zufallsvariablen... Ja, viele Dinge... Es gibt eine ganze Theorie der Zufallsprozesse, und es ist möglich, bei SB zu gewinnen, egal was irgendjemand sagt.

Warum also versagt die MO bei dieser Aufgabe? Philosophische, konzeptionelle Frage. Ich kenne die Antwort darauf nicht...

Ich muss das Thema in diesem Herbst abschließen, sonst wird es irgendwie langweilig. Ich habe viel Zeit damit verbracht, Zusatzmodule für neuronale Netze zu studieren, und dann die Anwendungstheorie, die noch niemand für die Finanzmärkte entwickelt hat. Irgendwie wird das von Datenwissenschaftlern im Allgemeinen zimperlich vermieden.

Ich habe ein kostenpflichtiges Abonnement für alle möglichen akademischen Abhandlungen und Forschungsarbeiten von Professoren, aber sie arbeiten alle mit Optionen, meistens. Sie halten es für erwiesen, dass es vor Ort nichts zu holen gibt.
Grund der Beschwerde: