Bayes'sche Regression - Hat jemand einen EA mit diesem Algorithmus erstellt? - Seite 39

 
-Aleks-:
Das ist es, worüber Sie nachdenken müssen - damit die Daten ähnlich sind, sollten Sie meiner Meinung nach ein Muster nehmen und nicht nur ein Fenster mit n Balken.
Ich bin absolut einverstanden. Die Frage, wie viele Balken für die Analyse genommen werden sollen, ist die Achillesferse nicht nur der diskutierten Regressionen. Allerdings möchte ich nicht die Regression, sondern die Wahrscheinlichkeiten mit der Bayes-Formel berechnen. Vorerst werde ich dummerweise das aktuelle Fenster von n Takten nehmen. Und in der Phase der Tests und Versuche werde ich für die Wahrscheinlichkeitsfunktion und die A-priori-Wahrscheinlichkeiten die Zeiträume von Volatilitätsspike zu Volatilitätsspike nehmen. Dies ist in der Regel der Zeitraum zwischen wichtigen Ereignissen.
 
Alexey Burnakov:
Vor kurzem diskutierte ich mit Kollegen über die Geschichte und Entwicklung der linearen Regression. Um es kurz zu machen: Am Anfang gab es nur wenige Daten und wenige Prädiktoren. Gewöhnliche lineare Regression wird mit einigen Annahmen verwaltet. Mit der Entwicklung der Informationstechnologie wuchs dann die Datenmenge, und die Zahl der Prädiktoren konnte leicht Zehntausende übersteigen. Unter diesen Bedingungen hilft die gewöhnliche lineare Regression nicht weiter - man lernt zu viel. So entstanden regulierte Versionen, Versionen, die den Anforderungen der Distributionen gerecht werden, usw.
Dies ist teilweise richtig. Die L2-Regularisierung hilft nicht, die Anzahl der Prädiktoren im Modell zu reduzieren. Die Neuroinformatik verwendete zunächst die Hebb'sche Lernregel, die zu einem unbegrenzten Wachstum der Gewichte eines neuronalen Netzes führte. Als man erkannte, dass das Gehirn nur über begrenzte Ressourcen verfügt, um die Gewichte der neuronalen Untereinheiten zu erhöhen und zu erhalten, wurde in den 60er und 80er Jahren die L2-Regularisierung hinzugefügt. Dadurch konnten die Gewichte zwar begrenzt werden, aber es gab immer noch viele vernachlässigbare Gewichtungen. Dies ist im Gehirn nicht der Fall. Im Gehirn sind die Neuronen nicht mit allen anderen Neuronen verbunden, auch nicht durch vernachlässigbare Gewichte. Es gibt nur eine begrenzte Anzahl von Verbindungen. In den 2000er Jahren wurden dann L1- und L0-Regelungen eingeführt, die entladene Verbindungen zulassen. Zahlreiche Wissenschaftler begannen, lineare Programmierung mit L1-Regularisierung für alles zu verwenden, von der Bildkodierung bis hin zu neuronalen Modellen, die Gehirnprozesse recht gut beschreiben. Die Wirtschaftswissenschaftler hinken den übrigen Wissenschaften immer noch hinterher, sei es aufgrund ihrer "Arroganz" (alles ist schon vor uns erfunden worden) oder weil sie die Mathematik einfach nicht verstehen.
 
Vladimir:
Das ist teilweise richtig. Die L2-Regularisierung hilft nicht, die Anzahl der Prädiktoren im Modell zu reduzieren. In der Neuroinformatik verwendete man zunächst die Hebb'sche Lernregel, die zu einem unbegrenzten Wachstum der Gewichte des neuronalen Netzes führte. Als man erkannte, dass das Gehirn nur über begrenzte Ressourcen verfügt, um die Gewichte der neuronalen Untereinheiten zu erhöhen und zu erhalten, wurde in den 60er und 80er Jahren die L2-Regularisierung hinzugefügt. Dadurch konnten die Gewichte zwar begrenzt werden, aber es gab immer noch viele vernachlässigbare Gewichtungen. Dies ist im Gehirn nicht der Fall. Im Gehirn sind die Neuronen nicht mit allen anderen Neuronen verbunden, auch nicht durch vernachlässigbare Gewichte. Es gibt nur eine begrenzte Anzahl von Verbindungen. In den 2000er Jahren wurden dann L1- und L0-Regelungen eingeführt, die entladene Verbindungen zulassen. Zahlreiche Wissenschaftler begannen, lineare Programmierung mit L1-Regularisierung für alles zu verwenden, von der Bildkodierung bis hin zu neuronalen Modellen, die Gehirnprozesse recht gut beschreiben. Die Wirtschaftswissenschaftler hinken den übrigen Wissenschaften immer noch hinterher, sei es aufgrund ihrer "Arroganz" (alles wurde schon vor uns erfunden) oder weil sie die Mathematik einfach nicht verstehen.
Ich konnte L2 nur mit der Begrenzung der Gewichte verwechseln. Und es handelt sich um Ridge (Tichonow) Regression. https://www.quora.com/What-is-the-difference-between-L1-and-L2-regularization

Manchmal ist L1 aber auch wegen der zusätzlichen Bestrafung von absoluten Fehlern und Nicht-Quadraten vorzuziehen. Fehlerquadrate können zu lange Schwänze ergeben, d. h. bei Quotierungen mit starken Schwänzen kann sich das Hinzufügen von Residuen-Quadraten negativ auf die Qualität des Modells auswirken. Nun, das ist nur Gerede.
 
Vladimir:
Die Wirtschaftswissenschaftler hinken den übrigen Wissenschaften immer noch hinterher, sei es aufgrund ihrer "Arroganz" (alles ist schon vor uns erfunden worden) oder aufgrund ihres schlechten Verständnisses der Mathematik.
Ja. Ich habe persönlich mit einem Manager (swd-Manager) gesprochen, der zuvor bei einem Börsenmakler gearbeitet hat. Er sagte, dass Preiserhöhungen als normal angesehen werden und das war's. Es werden die Methoden und falschen Vorstellungen des letzten Jahrhunderts verwendet. Ich habe ihm gesagt, dass es dort keine Normalität gibt. Kein einziger Test wird bestanden. Er weiß nicht einmal, wovon wir sprechen. Aber er ist kein Hardcore-Mathematiker, er ist Entwicklungsmanager.
 
Ich habe den Verdacht, dass die Indikatorlinie (wenn man nicht zu tief geht, z. B. dieselbe Maische) ungefähr eine Regressionslinie ist. Zumindest ist es eine grobe Annäherung
 
Alexey Burnakov:
Ja. Ich habe persönlich mit einem Manager (swd-Manager) gesprochen, der früher für einen Börsenmakler gearbeitet hat. Er sagte, dass Preiserhöhungen als normal angesehen werden und das war's. Es werden die Methoden und falschen Vorstellungen des letzten Jahrhunderts verwendet. Ich habe ihm gesagt, dass es dort keine Normalität gibt. Kein einziger Test wird bestanden. Er weiß nicht einmal, wovon wir sprechen. Aber er ist kein Hardcore-Mathematiker, er ist Entwicklungsmanager.
Was also, wenn es keine Normalität gibt? Sogar ein Entwicklungsleiter schreibt darüber, Vladimir hat hier darüber geschrieben. Wie kann man die Regression überhaupt nutzen, wenn man ihre Prinzipien oder Bedeutung nicht versteht? Du läufst herum wie ein Zombie in der dunklen Nacht mit dieser Normalität/Normalität. Es kann eine Verteilung in Würfeln, Quadraten, Zickzacklinien oder in Form eines Repin-Bildes sein. Die Fähigkeit zur Regressionsvorhersage hängt nicht davon ab.
 
Dmitry Fedoseev:
Was also, wenn es keine Normalität gibt? Sogar der Leiter einer Entwicklungsabteilung schreibt darüber, Vladimir hat hier darüber geschrieben. Wie kann man die Regression überhaupt nutzen, wenn man ihre Prinzipien oder Bedeutung nicht versteht? Du läufst herum wie ein Zombie in der dunklen Nacht mit dieser Normalität/Normalität. Es kann eine Verteilung in Würfeln, Quadraten, Zickzacklinien oder in Form eines Repin-Bildes sein. Die Fähigkeit zur Regressionsvorhersage hängt nicht davon ab.
Das ist der Grund, warum es so ist. Nachts ist es einfacher, zu denken. Selbst Führungskräfte wissen das. )
 
Yuri Evseenkov:
Völlig einverstanden. Die Anzahl der zu analysierenden Balken ist die Achillesferse nicht nur der hier diskutierten Regressionen. Allerdings möchte ich nicht die Regression, sondern die Wahrscheinlichkeiten nach der Bayes-Formel berechnen. Vorerst werde ich dummerweise das aktuelle Fenster von n Takten nehmen. Und in der Phase der Tests und Versuche werde ich für die Likelihood-Funktion und die A-priori-Wahrscheinlichkeiten die Zeiträume von Volatilitätsspike zu Volatilitätsspike nehmen. Dies ist in der Regel der Zeitraum zwischen wichtigen Ereignissen.

Und die Wahrscheinlichkeit drückt was aus: die Prognose für den nächsten Balken oder den Bewegungsvektor der nächsten Balken?

 
Im Allgemeinen sollten wir zunächst den Zweck der Regression definieren: Soll eine Kurve gefunden werden, die den ausgewählten Marktausschnitt am genauesten beschreibt, oder soll die künftige Preislage vorhergesagt werden? Wie kann die Qualität der Annäherung die Genauigkeit der Prognose bestimmen?
 
Vasiliy Sokolov:
Zunächst sollten wir entscheiden, zu welchem Zweck die Regression erstellt werden soll: Soll eine Kurve ausgewählt werden, die den ausgewählten Marktblock am genauesten beschreibt, oder soll die künftige Preislage vorhergesagt werden? Wie kann die Qualität der Annäherung die Genauigkeit der Prognose bestimmen?

Und wie kann man eine Kurve erstellen, die die Vergangenheit so genau wie möglich beschreibt und die Zukunft so genau wie möglich vorhersagt?

Oder wie kann man die Zukunft vorhersagen, ohne die Vergangenheit zu analysieren?

Angleichung ist die Analyse der Vergangenheit