Unsere Mascha! - Seite 4

 
Prival >> :

Der perfekte MA tut das auch. Der Dialog des Autors. Alexander Smirnow'.

siehe Beitrag ANG3110 06.02.2008 20:48

Wie perfekt ist es, wenn es neu gezeichnet wird?

 
Neutron >> :

Wir maximieren den Gewinn, "ohne die Geschichte zu kennen", indem wir nur den letzten Stand der Notierung und den einen vorherigen Wert X[i]-X[i-1] analysieren, und das war's. Es scheint so zu sein.

Das heißt, Sie schaffen das profitabelste System, das möglich ist. Und die Methode, die Sie entwickeln, nutzt alle Regelmäßigkeiten, die sich aus der Ihnen zur Verfügung stehenden Historie ableiten lassen.

>> Kühn!

 
TheXpert писал(а) >>

Wie perfekt ist es, wenn es überzogen wird?

Wir nehmen eine Geschichte und bauen daraus eine perfekte MA. Das ist es, was wir anstreben sollten. Und wir suchen diejenige, die nicht überzogen wird und eine minimale Abweichung von dieser Kurve aufweist. Sie lautet wie folgt

 
Ich will immer noch nach Bulaschow. Die Formel für das perfekte Mash-up war dort in etwa dieselbe. Aber am Ende wurde es eine DEMA
 
mql4com писал(а) >>

Das heißt, Sie schaffen das profitabelste System, das möglich ist. Und die Methode, die Sie entwickeln, nutzt alle Regelmäßigkeiten, die sich aus der Ihnen zur Verfügung stehenden Geschichte ableiten lassen.

Kühn!

Sieh an, sieh an, sieh an. Sehe ich aus wie Patient Nummer sechs?

Wenn Sie diese oder eine andere Methode verwenden, um die Dynamik einer integrierten Zufallsvariablen (exakt zufällig, nicht quasi-zufällig) vorherzusagen, erhalten Sie natürlich Null! Per Definition kann man einen Zufallsprozess nicht überlisten, das ist ein Naturgesetz. Andererseits sind Zeitreihen (TRs), wie Preisreihen, nicht völlig zufällig, es gibt explizite und implizite Regelmäßigkeiten, deren Ausnutzung es ermöglicht, statistische Erträge auf dem Devisenmarkt zu erzielen. Wir brauchen also Methoden und Werkzeuge, um diese schwachen Muster zu erkennen. Eine dieser Methoden ist die Anwendung von gleitenden Durchschnitten auf Kurse. Diese Methode hat einen klar definierten Anwendungsbereich, in dem ihre Nutzung gerechtfertigt und mathematisch korrekt ist. Im Wesentlichen sind alle gleitenden Durchschnitte eine Form der Integration des ursprünglichen BP. Im allgemeinsten Sinne ist Integration die Vorhersage der Zukunft durch Trends, während Differenzierung die Bestimmung von Prozesstrends ist. Aber welche Trends genau? Wenn wir uns das Bündel von

BP-MA-Vorhersage, ist es nicht schwer zu bestimmen, die Voraussetzung für die Anwendbarkeit der MA-Methode, wie ein positiver Korrelationskoeffizient zwischen benachbarten Lesungen in der Reihe der ersten Differenz der BP. Es ist in diesem Fall, die MAs geben profitable Strategien und unsere MA wird den besten Gewinn von allen möglichen geben! Das ist es, wofür wir kämpfen.

Wenn wir jedoch die Preis-PBs auf die Einhaltung der oben genannten Anforderung hin untersuchen, wird das Ergebnis der Analyse eher negativ ausfallen. Die Realität sieht so aus, dass Preisreihen auf allen TFs in der Regel einen kleinen negativen Autokorrelationskoeffizienten in den Reihen der ersten Differenz aufweisen und nur manchmal, bei Trends, dieser Koeffizient positiv ist.

Die Anwendbarkeit der vorgeschlagenen Methode und ihre Effizienz lassen sich nur anhand der Versuchsergebnisse beurteilen.

Vinin schrieb >>.
Ich will immer noch nach Bulaschow. Die Formel für den perfekten Brei war dort ungefähr dieselbe. Aber am Ende wurde es eine DEMA.
Nicht DEMA, sondern MEMA und sein Funktional hatten keinen Term, der für die Maximierung der TK-Rentabilität verantwortlich war, sondern einen Term, der die zweite Ableitung minimierte. Dies ermöglichte die Konstruktion einer sehr glatten MA und das ist alles. Und hier ist der Artikel von Bulashov:
Dateien:
mema_3.zip  279 kb
 
Neutron >> :


Anstelle von Mashek verwende ich die Interpolation durch Potenzpolynome nach der NK-Methode
auf irgendeinem Fenster. Es ist klar, dass die Extrapolation der Interpolationskrümmung
selbst in einer kleinen zukünftigen Umgebung, ist fast bedeutungslos, aber die Beschreibung der aktuellen
an der interessantesten Stelle - am rechten Rand des BP - ermöglicht es uns, den aktuellen Zustand zu beschreiben.
Durch Variation der Fenstergröße und des Grades der Krümmung ist es möglich
Andererseits ist es möglich, sich einen allgemeineren oder detaillierteren Überblick über das Geschehen zu verschaffen, wobei der Schwerpunkt auf dem aktuellen Prozess und seinen Phasen liegt.
Prozess und seine Phasen.


Meiner Meinung nach kann man die Zukunft von BP nur vorhersagen, wenn man sie analysiert.
die Entwicklung der Prozesse - z.B. gab es einen starken Abwärtsprozess, im jetzigen Zustand
sie wurde durch einen lateralen Prozess ersetzt -> ein weiterer Wachstumsprozess ist möglich.


Dieser Ansatz ist meiner Meinung nach besonders nützlich für Netzwerker, da NSs
einige typische Merkmale einer Interpolationskurve eingeben,
z.B. die Trendkomponente (Richtung und Ausmaß), die Abweichung von der
Trendkomponente, eine formalisierte Kurvenform, usw. - im Allgemeinen, so weit wie
Ihrer Vorstellungskraft - indem Sie dem Netz beibringen, den Strom zu erkennen und vorherzusagen
Vorhersage zukünftiger Prozesse und Aufbau einer Handelsstrategie auf dieser Grundlage.


Sie können auch die ferne und die nahe Vergangenheit auf unterschiedliche Weise glätten - etwas
ähnlich wie die EMA. Es ist auch möglich, einen synthetischen Ansatz zu verfolgen
- einen stark geglätteten gleitenden Durchschnitt mit einem entsprechend langen
Verzögerung und die nahe Vergangenheit, in der die Mouvings noch nicht funktionieren,
mit Hilfe der Interpolationskurve zu analysieren.

 
Aleku >> :

Ein solcher Ansatz ist meiner Meinung nach besonders nützlich für Netzwerker, denn NS kann
um einige typische Merkmale einer Interpolationskurve einzugeben,
z.B. Trendkomponente (Richtung und Ausmaß), Abweichung von
Trendkomponente, eine formalisierte Kurvenform, usw. - im Allgemeinen, so weit wie
Ihrer Vorstellungskraft - indem Sie dem Netz beibringen, den Strom zu erkennen und vorherzusagen
Vorhersage zukünftiger Prozesse und Aufbau einer Handelsstrategie auf dieser Grundlage.

Meiner Meinung nach ist diese Art der Vorverarbeitung von Eingangsdaten für NS eine Art Krücke. Durch die Integration des anfänglichen BP mit muves machen wir uns zunächst das Preisbild klar (glatte Kurve, sichtbare Trends), während der Glättungsprozess selbst keine zusätzlichen Informationen zu den Eingabedaten bringt (sie sind nicht verfügbar) und daher die NS-Arbeit nicht erleichtert. Unter diesem Gesichtspunkt sollten speziell sezierte Daten in den Eingang des NS eingespeist werden, was die Aufmerksamkeit des Netzes maximal auf den quasistationären Prozess lenkt. Ein Kandidat für einen solchen Prozess kann ein negativer Korrelationskoeffizient in der PDF sein, der übrigens nicht durch Kotir-Integration (Glättung) isoliert werden kann. Hier sind andere Methoden und Ansätze gefragt. Dies scheint vielversprechend.


Sie können auch die ferne und nahe Vergangenheit auf unterschiedliche Weise glätten - etwas
ähnlich wie die EMA. Es ist auch möglich, einen synthetischen Ansatz zu verfolgen
- einen sehr stark geglätteten gleitenden Durchschnitt mit einem entsprechend langen
Verzögerung und die nahe Vergangenheit, in der die Mouvings noch nicht funktionieren,
durch eine Interpolationskurve zu analysieren.


All dies ist kompliziert und erfordert eine gute Begründung, aber es ist mit Sicherheit eine Verschwendung von Zeit und Mühe.

 
Neutron писал(а) >>

... Die Preisreihen für alle TFs weisen in der Regel einen kleinen negativen Autokorrelationskoeffizienten in den Reihen der ersten Differenz auf, und nur manchmal, bei Trends, ist dieser Koeffizient positiv.

Wie haben Sie den Autokorrelationskoeffizienten berechnet? Ich kenne die "Autokorrelationsfunktion". Aber es handelt sich um eine Funktion, nicht um eine Zahl.
 

Angenommen, es gibt eine Probe aus dem ursprünglichen BP, z. B. auf M1. Wir konstruieren eine Reihe der ersten Differenz d1[i]=Open[i]-Open[i-1], dann wird der Korrelationskoeffizient für TF=1m zwischen benachbarten Stichproben wie folgt berechnet: f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), wobei index alle Werte von BP durchläuft. Für TF=2m gehen wir genauso vor, indem wir zunächst BP für 2m konstruieren und seine erste Differenz d2[i] finden und so weiter bis zur gewünschten TF. Ich habe mich auf TF=1500 Minuten (etwa 24 Stunden) beschränkt. Es mag sich die Frage stellen, wie man aus den Protokollen eine andere TF konstruieren kann, zum Beispiel für M2, aber hier scheint alles transparent zu sein. Diese Daten (Wert des Korrelationskoeffizienten in U/min für verschiedene TFs) habe ich in meinem vorherigen Beitrag dargestellt.

 
Neutron писал(а) >>

Angenommen, es gibt eine Probe aus dem ursprünglichen BP, z. B. auf M1. Wir konstruieren eine Reihe der ersten Differenz d1[i]=Open[i]-Open[i-1], dann wird der Korrelationskoeffizient für TF=1m zwischen benachbarten Proben wie folgt berechnet: f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), wobei der Index alle Werte von BP durchläuft. Für TF=2m gehen wir genauso vor, indem wir zunächst BP für 2m konstruieren und seine erste Differenz d2[i] finden und so weiter bis zur gewünschten TF. Ich habe mich auf TF=1500 Minuten (etwa 24 Stunden) beschränkt. Es mag sich die Frage stellen, wie man aus den Protokollen eine andere TF konstruieren kann, zum Beispiel für M2, aber hier scheint alles transparent zu sein. Genau diese Daten (Wert des Korrelationskoeffizienten in RPM für verschiedene TFs) habe ich im vorherigen Beitrag auf dem Chart gezeigt.

Noch besser ) Was sind diese Formeln und woher bekommen Sie sie?

вот посмотрите как расчитывается коэффициент кореляции https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%BA%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D0%B8

Der Korrelationskoeffizient wird zwischen Arrays und nicht zwischen Zählungen berechnet. Bitte formulieren Sie präzise, damit andere verstehen können, was Sie sagen, behaupten und zählen wollen.