Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1957

 
elibrarius:

Das ist richtig. Es wäre eine gute Idee, die Reihenfolge der Aktionen gleich zu beschreiben...
Wenn ich noch einmal über Ihre Beschreibung nachdenke, gehe ich von folgender Reihenfolge aus:

1. Berechnen Sie die Korrelation aller Prädiktoren im Zug
2. Bauen Sie den Baum
3. Denken Sie beim letzten Split z. B. an die letzten 100 besten Splits. Lagern Sie bis zu 100 Stück, damit Sie eine große Auswahl haben.
4. Aus diesen 100 werden 5 ausgewählt, die nicht mit dem Prädiktor des besten Splits und nicht untereinander korreliert sind.

Außerdem ist nicht klar, welcher der 5 verschiedenen Splits zu wählen ist.
Wenn sie zufällig ist, entspricht sie dem Random Forest, der jedem Baum zufällige Prädiktoren zuweist und auf diesen einen Baum aufbaut.
Wenn Durchschnitt, dann wieder analog zum Zufallswald, der Wald findet dann aus Zufallsbäumen das arithmetische Mittel.

Jetzt haben Sie es richtig gemacht!

Deshalb sind RandomForests zufällig, sie sind voller Müll, und die oben beschriebenen Bedingungen müssen nicht unbedingt zutreffen, obwohl es ähnliche Situationen geben kann, und es ist möglich, dass ein erfolgreiches Modell aus einer ähnlichen Art der Zerlegung entstehen kann. Hier wird es jedoch einen kontrollierteren Prozess geben.

Die Gewichte jedes Splits im Blatt werden natürlich gewogen, und vielleicht geben wir die gleichen Koeffizienten an, wir können die Koeffizienten aus der gleichen Geschichte übernehmen. Das ist es, was ich jetzt im Allgemeinen tue, wenn ich ein Modell aus Blättern zusammensetze.

 
Valeriy Yastremskiy:

Nee, analoge Aktionen sind Summe, Subtraktion, Multiplikation, Division und möglicherweise komplexere logarithmische Abhängigkeiten, Potenzverhältnisse. Dabei handelt es sich nicht um Berechnungen, sondern um analoge Messgeräte in jeder Zelle. Und DACs und ADCs sind ein Input-Output, sie nehmen nicht an den Berechnungen teil, sondern liefern das Digitale.

In der Neumann-Architektur werden sowohl die Prozeduren als auch die Daten im Speicher abgelegt, und es gibt keinen parallelen Zugriff auf Prozeduren und Daten; der Zugriff auf die Daten, dann auf die Prozedur und zurück auf die Daten führt zu Einschränkungen bei der Datenverarbeitung. Und hier werden Prozeduren in jeder Zelle von einem kleinen Gerät gespeichert und es gibt einen Zugriff auf die Prozedur auf einmal, mit Zugriff auf die Daten.

Hier sind die Daten, die ich nicht verstehe, ist es bedingt sprechen, jeder Befehl hat direkten Zugriff auf den Speicher und die Ergebnisse der Berechnung ohne den Förderer?

 
Aleksey Vyazmikin:

Jetzt haben Sie es richtig gemacht!

Zufallswälder sind zufällig, weil sie voller Unrat sind und die beschriebenen Bedingungen nicht unbedingt erfüllt sind, obwohl es ähnliche Situationen geben kann und es möglich ist, dass ein erfolgreiches Modell durch ähnliche Pannen erhalten wird. Hier wird es jedoch einen kontrollierteren Prozess geben.

Die Gewichte der einzelnen Teile werden natürlich gewogen, und vielleicht geben wir die gleichen Koeffizienten an, wir können die Koeffizienten aus der gleichen Geschichte übernehmen. So mache ich es jetzt im Allgemeinen, wenn ich ein Modell aus Blättern zusammensetze.

Ich verstehe den letzten Schritt nicht - welchen der 5 Splits soll ich wählen?
 
elibrarius:
Ich habe den letzten Schritt nicht verstanden - welchen der 5 Splits soll ich wählen?

Die Messwerte aller 5 Splits müssen berücksichtigt werden, was die Stabilität erhöht.

Angenommen, der beste Split wird mit 0,6 gewichtet und die anderen vier mit jeweils 0,1. Wenn die Summe 0,8 oder eine andere, durch Stichproben ermittelte Punktzahl ergibt, dann ist die Antwort wahrhaftig "1" oder die andere auf dem Blatt erwartete Klasse.

Wir müssen auch den Recall überprüfen, d. h. wie viele Rückrufe die Splits in dieser Teilstichprobe haben.
 
Aleksey Vyazmikin:

Was ich an den Daten nicht verstehe, ist, dass sie fiktiv sind, jeder Befehl hat direkten Zugriff auf den Speicher und die Berechnungsergebnisse ohne Förderer?

Es gibt keine "Daten", nur Elektronen, deren Strom durch Transistoren usw. gesteuert wird. Die NS-Architektur selbst ist auf die Platine gedruckt, nicht in digitaler Form. Solche analogen neuronalen Netze werden schon seit langem in Form von Koprozessoren hergestellt, zum Beispiel in iPhones.

Der Artikel enthält nichts Neues.
 
Maxim Dmitrievsky:

Es gibt keine "Daten", nur Elektronen, deren Strom durch Transistoren usw. gesteuert wird. Die NS-Architektur selbst ist auf die Platine gedruckt, nicht in digitaler Form. Solche analogen neuronalen Netze werden schon seit langem in Form von Koprozessoren hergestellt, zum Beispiel in iPhones.

Der Artikel enthält nichts Neues.

Und ich habe verstanden, dass es sich um dynamische Berechnungen handelt, nicht um statische, vorgegebene.

 
Aleksey Vyazmikin:

Und ich habe es so verstanden, dass es sich um dynamische Berechnungen handelt, nicht um statische, vorher festgelegte Berechnungen.

So wird beispielsweise das Signal des iPhone-Kamerasensors direkt an den analogen NS weitergeleitet, wodurch die Digitalisierung umgangen wird. Die NS verarbeitet das Bild vor, um die Qualität zu verbessern (Rauschen herausfiltern usw.).

und diese dann in digitale Bilder umgewandelt werden

 
Aleksey Vyazmikin:

Ich gehe davon aus, dass es sich um dynamische Berechnungen handelt und nicht um statische, vorher festgelegte Berechnungen.

Eine grobe Analogie sind elektronische Absperrschieber und Kompressoren. Natürlich sind die Geräte in den Zellen statisch, aber es gibt viele von ihnen und es gibt einen parallelen Zugang zu ihnen) und die Berechnungen können dynamisch sein, wenn wir das Eingangssignal ändern, erhalten wir eine dynamische Ausgabe.

 
Aleksey Vyazmikin:

Die Messwerte aller 5 Splits sollten berücksichtigt werden, was die Stabilität erhöht.

Angenommen, wir gewichten den besten Split mit 0,6 und die anderen vier mit 0,1. Wenn die Summe 0,8 oder einen anderen Wert ergibt, der durch Stichproben ermittelt wird, dann nehmen wir an, dass die Antwort eine echte "1" oder eine andere im Arbeitsblatt erwartete Klasse ist.

Sie müssen auch den Rückruf überprüfen, d. h. wie viele Rückrufe die Splits in dieser Teilstichprobe haben.
Der sauberste Split wird mit weniger sauberem gemischt. D.h. wir verschlechtern das Ergebnis auf dem Tablett, das ist im Prinzip egal. Es ist jedoch nicht sicher, dass dadurch das Testergebnis, d. h. die Verallgemeinerbarkeit, verbessert wird. Jemand sollte es versuchen... Ich persönlich glaube nicht, dass die Verallgemeinerung besser sein wird als der Fall des Gerüsts.

Es ist viel einfacher, die Tiefe des Baumes zu begrenzen und den letzten Spalt nicht zu machen, sondern beim vorherigen Spalt stehen zu bleiben. Wir werden am Ende das gleiche, weniger klare Blatt haben, als wenn wir eine zusätzliche Aufteilung vornehmen. Ihre Option würde etwas dazwischen geben, ob wir eine Aufteilung vornehmen oder nicht. D.h. Sie werden mit Ihrer Methode z.B. den Durchschnitt des Blattes auf der 7. Es wird etwas sauberer sein als das Blatt der 6. Ich denke, die Verallgemeinerung wird nicht viel ändern, und es ist eine Menge Arbeit, die Idee zu testen. Sie können auch mehrere Bäume mit den Tiefenstufen 6 und 7 mitteln - Sie werden ungefähr das gleiche Ergebnis wie bei Ihrer Methode erhalten.
 
Aleksey Vyazmikin:

Eine Art Aktion auf den Wellen im Wesentlichen? Eingehende Daten werden in ein Polynom umgewandelt, dann wird das Polynom in eine Welle umgewandelt und die Wellen werden irgendwie "kollidiert/verschmolzen"?

Nun, ja.

Es gab schon früher Versuche, analoge Computer zu bauen, aber sie waren entweder sehr langsam oder energieintensiv.

Grund der Beschwerde: