Differenzialrechnung, Beispiele. - Seite 7

 
Nikolai Semko:

Hier ist eine mögliche Umsetzung dieses Ansatzes. Dies ist die zweite Ableitung Ihrer Linie.



Ja.

Und das gefällt mir. )))

Vielen Dank für Ihre Teilnahme.

 
Aleksey Panfilov:

Wir werden sehen, wie wir vorankommen.

Polynome, Splines, Gaußsche Prozesse...
Blaue Punkte - Training, rote Punkte - Test. Erzeugen Sie einen Haufen beliebiger Kurven auf blauen, prüfen Sie
die Metrik, die Sie mögen, auf die roten und wählen Sie die beste aus. Sie können wahllos einige der blauen entfernen...


 
Eidechse_:

Polynome, Splines, Gauß'sche Prozesse...
Blaue Punkte sind Trainingspunkte, rote Punkte sind Testpunkte. Erzeugen Sie ein Bündel beliebiger Krümmungen auf den blauen Flächen, testen Sie
die Metrik, die Sie mögen, auf die roten und wählen Sie die beste aus. Sie können wahllos einige der Blautöne entfernen...



Und so, und... ja. Neuronale Netze sind eine sehr ernstzunehmende Verlockung.

"Es heißt, dass noch nie jemand von dort zurückgekommen ist." :))))

 
 
Aleksey Panfilov:

Und so, und... ja. Neuronale Netze sind eine sehr ernstzunehmende Verlockung.

"Es heißt, dass noch nie jemand davon zurückgekommen ist." :))))

Abgesehen von den Zauberern, natürlich. ))
Das Thema ist so interessant, dass man gar nicht mehr zurückgehen möchte).
 
Yuriy Asaulenko:
Das Thema ist so interessant, dass ich nicht mehr zurückgehen möchte).

)))

Nach dem, was ich über neuronale Netze gesehen habe, scheinen Differenzengleichungen dort weit verbreitet zu sein, nur werden sie in den Erklärungen in einer anderen Form geschrieben, die offenbar bereits an die Probleme angepasst ist.

Und das ist auch logisch, wenn es um die Analyse von diskreten Informationen geht.
 
Aleksey Panfilov:

)))

Nach dem, was ich über neuronale Netze gesehen habe, scheinen Differenzengleichungen dort weit verbreitet zu sein, nur in den Erklärungen werden sie in einer anderen Form geschrieben, die offenbar bereits an die Aufgaben angepasst ist.

Ich muss das Thema lesen. Ich verstehe immer noch nicht wirklich, was es mit RU auf sich hat.

Ich habe das Thema noch einmal gelesen. Ich habe alles verstanden, aber ich verstehe immer noch nicht, worum es geht.

Die analytischen Funktionen der Geschichte lassen sich bis einschließlich der 4. Ableitung mit beliebigen Methoden leicht zeichnen. Die polynomiale Regression ist ein guter Näherungswert.

Worin besteht der Vorteil des EVU?

 

Direkt aus den Differenzgleichungen für gleichmäßig verteilte Punkte lassen sich auch auf andere Weise Interpolationsformeln ableiten.

-3*Y3 =1*Y1-3*Y2-1*Y4

-6*Y3 =1*Y1-4*Y2-4*Y4+1*Y5

-10*Y3 =1*Y1-5*Y2-10*Y4+5*Y5-1*Y6

-15*Y3 =1*Y1-6*Y2-20*Y4+15*Y5-6*Y6 +1*Y7

-21*Y3 =1*Y1-7*Y2-35*Y4+35*Y5-21*Y6 +7*Y7-1*Y8

Als neue Information wird nicht der letzte Wert des Preises, sondern sein letztes Inkrement (die erste Differenz) angenommen.

Als Code:

      a1_Buffer[i]=(open[i]-3*open[i+1]   -1*a1_Buffer[i+1 ]  )/(-3);
      a2_Buffer[i]=(open[i]-4*open[i+1]   -4*a2_Buffer[i+1 ]   +1*a2_Buffer[i+2 ]  )/(-6);
      a3_Buffer[i]=(open[i]-5*open[i+1]   -10*a3_Buffer[i+1 ]  +5*a3_Buffer[i+2 ]  -1*a3_Buffer[i+3 ])/(-10);
      a4_Buffer[i]=(open[i]-6*open[i+1]   -20*a4_Buffer[i+1 ]  +15*a4_Buffer[i+2 ]  -6*a4_Buffer[i+3 ]  +1*a4_Buffer[i+4 ])/(-15);
      a5_Buffer[i]=(open[i]-7*open[i+1]   -35*a5_Buffer[i+1 ]  +35*a5_Buffer[i+2 ]  -21*a5_Buffer[i+3 ]  +7*a5_Buffer[i+4 ]  -1*a5_Buffer[i+5 ])/(-21);

Die Abbildung zeigt den Anfang des Diagramms.

Und Sie können deutlich sehen, dass wir dadurch in der Lage waren, Auto-Oszillationen in einem bestimmten Stadium zu behandeln.

Natürlich können auch nachträgliche Unterschiede als neue Informationen angesehen werden.

Allerdings ist mir schon bei der ersten Differenz nicht ganz klar, welche algebraische Linie wir ziehen. Und je größer die "Hebelwirkung", desto komplizierter wird es. ))))

 
Aleksey Panfilov:

Und Linien, die durch Polynome vom Grad 5,6 (rot, gelb) gebildet werden, fallen in eine Art Resonanz oder Auto-Oszillation und akkumulieren allmählich ihre Amplitude. Die Erhöhung der Hebelwirkung für Polynome mit 5 und höheren Potenzen ändert nichts an der Situation.

Die Matrix ist bereits degeneriert :) in solchen Fällen wird die Regularisierung verwendet, die Grade werden reduziert.
 

Alexey, sagen Sie mir: Wie unterscheidet sich Ihr Indikator mit den obskuren Bezeichnungen (Polynom, Newtonsches Binom, Differenz, Interpolation) grundlegend von einem gewöhnlichen gleitenden Durchschnitt? Genauer gesagt, unterscheidet er sich von einem einfachen gleitenden Durchschnitt mit einer Periode von 72 von einem gleitenden Durchschnitt mit der gleichen Periode.

Ihr Indikator ist gelb.

Der SMA von einem SMA mit einer Periode von 72 ist lila.



Dateien:
MaMa.mq4  7 kb
Grund der Beschwerde: