Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3295

 
Maxim Dmitrievsky #:

1. Was hat das mit Optimierung zu tun?

2. Eine Gegenfrage 💩 ist ein neuronales Netz ein Optimierer oder ein Approximator?

1. Was hat "hier" mit was zu tun?

2. Weißt du immer noch nicht, dass ein neuronales Netz ein Approximator ist?

 
Andrey Dik #:

1. An welchem Ort "hier"?

2. wissen Sie immer noch nicht, dass ein neuronales Netz ein Approximator ist?

Das wissen Sie offenbar nicht. Sonst würden Sie sich nicht fragen, was eine Approximation damit zu tun hat.

Zu welchem Zweck haben Sie Ihre Optimierung in die Diskussion eingebracht?

Können Sie verstehen, dass dies unterschiedliche Dinge sind?
 
Andrey Dik #:

Nein, das ist nicht das, worüber wir sprechen.
Die Anhäufung heterogener Informationen hindert nur daran, Zusammenhänge zu finden, und es entstehen viele Widersprüche.
Aber nur bis zu einer bestimmten Ebene, auf einer bestimmten Ebene gibt es so viele Informationen , dass es ausreicht, einen Monolithen zu bilden, beginnen die fehlenden Puzzlesteine selbst wiederhergestellt zu werden.

eine analogie sei als beispiel genannt: wenn man eine ebene oberfläche von zwei stäben aus verschiedenen metallen poliert, gleiten die stäbe umso besser aufeinander, je geringer die rauheit ist. wenn man die oberflächen weiter poliert, kleben die stäbe aneinander, die moleküle beginnen von den beiden stäben aus ineinander zu dringen, d.h. es kommt nicht zu einer weiteren reduktion der reibungskräfte, sondern im gegenteil zu einem sprunghaften wachstum!

Wahrscheinlich ist das widersprüchlich, aber die Idee ist klar.

Ich stimme zu

aber es wird kein plötzliches Wachstum geben, denn:

- nicht jeder ist so stur, dass er bei der erreichten Entwicklung der Intelligenz nicht stehen bleibt.

- sich Geschäftsgeheimnisse und hohe Preise bilden, was wiederum Angebot und Nachfrage reduziert

Ihr Gedanke steht ganz am Anfang auf Ihrer eigenen Grafik: geringe Quantität bei hoher Qualität.

für hohe Qualität wird eine übermäßige Menge an Informationen verworfen
 
Maxim Dmitrievsky #:
Das wissen Sie offenbar nicht. Sonst würden Sie sich nicht fragen, was die Angleichung damit zu tun hat.

Sie haben Ihre Optimierung in die Diskussion eingebracht, zu welchem Zweck?

Können Sie erkennen, dass dies unterschiedliche Dinge sind?

Ich habe Ihre Frage beantwortet, warum wiederholen Sie sich?

Mein Beitrag bezog sich auf den Beitrag von Sanych, der die krummen FF erwähnte.

Kannst du das verstehen?

Und du kannst auch nicht verstehen, dass Lernen jeglicher Art ohne Optimierung nicht möglich ist, sie sind untrennbare Dinge.

 
Andrey Dik #:

Ich habe Ihre Frage beantwortet, warum wiederholen Sie sich?

Mein Beitrag bezog sich auf den Beitrag von Sanych, der den krummen FF erwähnte.

Können Sie das verstehen?

Und Sie können auch nicht verstehen, dass Lernen in irgendeiner Form nicht ohne Optimierung möglich ist, das sind untrennbare Dinge.

Er hat richtig geschrieben, dass wir das Konzept der Extrema nicht haben. Wir haben Näherungs- und Stabilitätskriterien für neue Daten, die die Komponenten des Modellfehlers sind.
 
Renat Akhtyamov #:

Das ist wahrscheinlich widersprüchlich, aber ich verstehe die Idee.

Ich stimme zu

aber es wird kein plötzliches Wachstum geben, denn:

- nicht jeder ist so stur, dass er bei der erreichten Entwicklung der Intelligenz nicht stehen bleibt.

- sich Geschäftsgeheimnisse und hohe Preise bilden, was wiederum Angebot und Nachfrage reduziert

Ihr Gedanke steht ganz am Anfang auf Ihrer eigenen Grafik.

Ich habe das Beispiel mit den polierten Stäben genannt, da gibt es einen Sprung in den Reibungskräften.

Mit Informationen wird es natürlich keinen Sprung geben, sondern einen geglätteten Übergang.

 
Maxim Dmitrievsky #:
Er schrieb richtig, dass wir nicht über das Konzept der Extrema verfügen. Wir haben Näherungs- und Stabilitätskriterien für neue Daten, die die Komponenten des Modellfehlers sind.

Verbessern Sie die Näherungs- und Stabilitätskriterien iterativ oder nicht?

Oder ist es wie im Märchen, als ein reicher Mann 30 Jahre lang auf dem Herd lag und plötzlich aufstand und allen in den Hintern trat? In 10 Tagen verschwindet das Schmiermittel in unbeweglichen Gelenken, so dass der reiche Mann niemanden mehr treten kann, aber er wird in 10 Tagen auch nicht mehr aufstehen können.

Nein, man macht es iterativ, verbessert die Ergebnisse, es ist ein Optimierungsprozess.

 
Andrey Dik #:

Annäherung und Stabilitätskriterien iterativ verbessern oder nicht?

Nein, man verbessert die Schätzungen iterativ, es handelt sich um einen Optimierungsprozess.

Was bedeutet das? Was passiert, wenn man den Grad des Polynoms erhöht?
 
Maxim Dmitrievsky #:
Was soll das bedeuten?

Haben Sie Ihre Frage schon wieder vergessen?
Daraus folgt, dass Sie immer optimieren, auch wenn Sie denken, dass Sie das nicht tun.
Ihre Kriterien sind FFs, die Sie durch Optimierungsmethoden verbessern.
 
Andrey Dik #:

haben Sie Ihre Frage schon vergessen?
Daraus folgt, dass Sie immer optimieren, auch wenn Sie denken, dass Sie das nicht tun.
Deine Kriterien sind FFs, die du mit Optimierungsmethoden verbesserst.
Ich habe keine Frage. Ich habe geschrieben, warum eine große Anzahl von Merkmalen zu schlechten Ergebnissen bei der kausalen Inferenz führt.

Sie schreiben Dinge, die davon abstrahiert sind.
Grund der Beschwerde: