Marktknigge oder gute Manieren im Minenfeld - Seite 79

 
paralocus писал(а) >>

Übrigens, sehen Sie, was für ein charakteristisches Bild ich von der Verteilung der ersten Differenzreihe über eine Reihe von Transaktionen erhalte, wenn Sie eine vertikale Aufschlüsselung der Minuten mit einer Spanne (3 Punkte) vornehmen:

Wenn Sie die Verteilungsfunktion erstellen, stellt sie die Merkmale deutlicher dar. Was Sie angesprochen haben, ist eine Ansicht der FR von oben und eine zeitliche Auflösung. Interessant, natürlich, aber nicht so anschaulich.

Jetzt liegt sie knapp über 2(2,153), dann kommt sie näher an 2 heran, dann weiter weg, je nach H, aber immer knapp über 2

Die Natur des Marktes muss eine Tendenz gehabt haben. In weiten Teilen liegt die Bewertung eher bei <2.

 
Neutron >> :

Wenn Sie eine Verteilungsfunktion erstellen, werden die Merkmale deutlicher dargestellt. Was Sie angesprochen haben, ist ein Blick auf die FR von oben und eine Auflösung auf der Zeitskala. Interessant, natürlich, aber nicht so anschaulich.

Jetzt ist sie knapp über 2(2,153), dann kommt sie näher an 2 heran, dann wieder weiter weg, je nach H, aber immer knapp über 2

Die Natur des Marktes muss eine Tendenz gehabt haben. Auf großen Strecken beträgt die Schätzung in der Regel <2.

Ich werde es heute bauen. Ich habe einen wirklich kleinen Zeitraum von etwas mehr als einem Monat (20 000 Min.), und mein DC erlaubt es nicht, einen längeren Verlauf der Minen herunterzuladen.



Ich hatte gestern Abend eine Idee und möchte sie hier äußern. Das gilt für ALLE, meine Herren.

Nennen wir es SOI (damit es niemand errät -:) )


Für eine ordnungsgemäße Datenanalyse benötigen wir also eine gute (statistisch ausreichende und lückenlose) Zeckenhistorie, die wir aus offensichtlichen Gründen nicht haben.

Der Kern der Idee ist, wie man es mit dem geringsten Aufwand und dem größten Nutzen für jeden Händler schaffen kann. Die Lösung ist einfach - mieten Sie dedizierte Server (2 oder besser 3) und installieren Sie Zeckenkollektoren auf diesen Servern... über jedes beliebige Werkzeug und Maklerunternehmen. Und nicht nur das (dazu später mehr). Eine Person dieses Unternehmen wird sehr teuer sein, aber die Idee ist nur, wie es zu tun ist nicht kostenlos, aber billig, zuverlässig und praktisch.


Rechnen wir mal nach:

****************************** *************************

1. die Anmietung eines dedizierten virtuellen Servers mit ausreichend Speicherplatz kostet heute rund 100 Pfund pro Monat (Sie benötigen 2 unabhängige Server) ... 200 Dollar/Monat.

2. Es bräuchte einen guten Programmierer, der die ganze Sache im Auge behält und die Geschichte patcht.

Der Codierer sollte für diese Arbeit natürlich etwas Geld erhalten. Die tägliche Arbeit dort wird nicht viel sein, so 200 Pfund / Monat (dies ist jedoch nicht die Grenze dessen, was der Programmierer in dem Projekt verdienen kann)

Das sind in der Tat alle Grundkosten! 400 Pfund im Monat.


Sie brauchen auch eine einheitliche Online-Ressource, die Sie platzieren müssen:

a) Ein Marktplatz für den Verkauf von Teakholzgeschichte.

b) Ein Marktplatz für den Verkauf von EAs, auf dem Sie die aktuelle Arbeit eines der vorgeschlagenen EAs in der Demo kostenlos beobachten können.

c) Ein Forum, in dem konstruktive Kritik an der Entwicklungszusammenarbeit zulässig ist.



***************************** REVENUE **************************

1. Zahlung für das Herunterladen von Tick-Historie - 1 Monat Ticks für jedes Instrument von jedem Broker-Unternehmen - 1WMZ (Zahlung ist bequem über WebMoney)

2. Gebühr für das Hosting von Beratern auf einem Remote-Server (Arbeit für echte) - 20WMZ pro Woche (wenn Berater nicht so viel verdienen, einfach wegwerfen)

3. Hosting-Gebühr für Demo-Berater - 5WMZ pro Woche

4. Zinsen von Beratern, die über die Plattform verkauft wurden (ich kann die genaue Zahl nicht nennen)

******************************************************************************************


Im Allgemeinen scheint das Projekt recht rentabel und nützlich zu sein. MetaQuotes wird wahrscheinlich auch interessiert sein, weil SOI eine gute PR für ihr Produkt - MT5 - machen wird.

Mit einem Wort: Alle gewinnen, außer den Entwicklungshelfern. Ehrliche Maklerunternehmen haben jedoch nichts zu befürchten.

Für den Start einer Konzession brauchen wir Aktionäre. Ich persönlich bin bereit, Geld in Höhe von 100WMZ zu teilen. Wer noch ...?



 

1. Ich sammle Zecken für meinen eigenen Bedarf. Genug ist genug.

2. Als kommerzielles Projekt ist dieses Projekt meiner Meinung nach einem anderen Projekt der Marke "Forex" unterlegen.

3 Wenn Sie Häkchen nur für die Analyse benötigen, müssen Sie zunächst die Durchführbarkeit des Projekts nachweisen. Zeigen Sie das Realeinkommen auf Ticks und beweisen Sie, dass es anderen Darstellungsformen der Preisreihen überlegen ist. Es ist klar, dass Verweise auf Behörden nicht gültig sind.

Und die letzte. Jeder handelt in der Geschichte seines Maklerunternehmens mit seinem eigenen einzigartigen Kursfilter. Für diese spezielle Maklerfirma wird NS ausgebildet. Es geht also nicht um die Universalität des vorgeschlagenen Projekts! Wer außer Ihnen wird daran interessiert sein? 1 oder 2 weitere Personen...

 
Ja, das mit den Filtern hatte ich nicht bedacht. Obwohl ich erst gestern darüber geschrieben habe... Ich danke Ihnen.
[Gelöscht]  
Ist es Ihnen gelungen, die Eingaben auf eine konstante Verteilung zu normalisieren? Ich habe in letzter Zeit mit einem ähnlichen Problem zu kämpfen gehabt. Beschreiben Sie das Wesen der Rationierung anhand eines Beispiels. Ich möchte sichergehen, dass ich Ihre Schwierigkeiten richtig verstehe. Wenn ich es richtig verstehe, kann ich eine Lösung vorschlagen.
 
Ich habe eine andere Art von Schwierigkeiten.
 

Frage an Neutron und Paralocus. Soweit ich weiß, trainiert Neutron sein Gitter mit einer modifizierten RPROP-Methode, während Paralocus sein Gitter mit einer modifizierten BPROP-Methode trainiert. Bei der klassischen RPROP-Methode werden die Gewichtsstufen durch Multiplikation der Gradienten des Trainingsfehlers zum Quadrat (dE^2/dw = -delta*Neuron_Input) mit der Trainingsrate berechnet. Diese Methode kann lokal angewandt werden, wenn von einem Trainingssatz zum nächsten gewechselt wird, oder epochal, indem Fehlergradienten für alle Trainingssätze akkumuliert und dann die Gewichtungsschritte berechnet werden. Ihre Änderung besteht darin, dass die Gewichtungsschritte zusätzlich mit (1-L/N)*dw/sqrt(dwNorm) multipliziert werden. Neutron akzeptiert nur dw-Inkrementzeichen, wie in RPROP. Ich habe fast alle Arten von RPRO-Methoden ausprobiert (BPROP, RPROP, IRPROP+/-, SARPROP, GRPROP) und bin zu ziemlich enttäuschenden Ergebnissen gekommen. Wenn die Gewichte mit einigen Zufallszahlen initialisiert werden (z.B. im Bereich von -0,5...0,5), ist der anfängliche Lernfehler sehr hoch und die Lernmethoden reduzieren ihn erfolgreich. Hier gibt es kein Problem. Wenn die Gewichte jedoch mit Nullwerten oder sehr kleinen Zufallswerten (z.B. -0,05 ... 0,05) initialisiert werden, dann ist der anfängliche Lernfehler klein und gleich dem endgültigen Lernfehler, wenn die Gewichte mit "großen" Zufallszahlen initialisiert werden. Welchen Sinn hat es dann, das Netz zu trainieren, wenn wir wissen, dass Gewichte von Null einen Fehler ergeben, der dem endgültigen Lernfehler nahe kommt, wenn die Anfangsgewichte zufällig sind? Hier ist ein Diagramm des Trainingsfehlers mit der modifizierten ORO-Methode wie Paralocus (früheren Beiträgen nach zu urteilen, verwendete Neutron anfangs die gleiche Methode)


Alle Trainingsmethoden, die ich erwähnt habe, zeigen in etwa das gleiche Verhalten: eine schöne und inspirierende Verringerung des Lernfehlers von Epoche zu Epoche bei zufälligen Anfangsgewichten (man kann eine Abhandlung oder eine Dissertation schreiben). Bei Ausgangsgewichten von Null ist der Fehler bereits so klein, dass das Netz ihn nicht mehr verbessert. Hier ein Beispiel für das IRPROP+-Training mit denselben Eingabedaten



Möglicherweise ist dieses Verhalten des Trainingsfehlers spezifisch für mein Netz (zwei Schichten, 12 Eingänge, 5 versteckte Neuronen, 1 Ausgang, 120 Trainingssätze) oder für die Eingabedaten (relative Preiserhöhungen mit unterschiedlichen Verzögerungen). Ich würde gerne sehen, wie Ihre Netze mit zufälligen und Null-Anfangsgewichten lernen. Wenn es Ihnen nichts ausmacht, zeigen Sie mir die Graphen des NON-NORMED Lernfehlers als Funktion der Epoche für diese beiden Fälle.

Hier habe ich ein wenig über mein Ergebnis nachgedacht und bin zu dem Schluss gekommen, dass, wenn die Gewichte des Netzes während des Lernprozesses gegen Null tendieren oder mit anderen Worten die Anfangsgewichte nahe am trainierten Zustand des Netzes liegen, das Netz versucht, sehr schwach korrelierte Eingaben und Ausgaben zu beschreiben, d. h. einen Zufallsmarkt, in dem eine Vorhersage unmöglich ist. Ich habe ein solches Theorem "erfunden".


 
gpwr писал(а) >>

Vielleicht ist dieses Verhalten des Lernfehlers spezifisch für mein Netz (zwei Schichten, 12 Eingänge, 5 versteckte Neuronen, 1 Ausgang, 120 Trainingssätze) oder für die Eingabedaten (relative Preissteigerungen mit unterschiedlichen Verzögerungen). Ich würde gerne sehen, wie Ihre Netze mit zufälligen und Null-Anfangsgewichten lernen.

So sieht der Prozess der Fehlerreduzierung beim Lernen eines zweischichtigen NS in Abhängigkeit von der Epochenzahl aus:

Das Netz hat 5 Eingänge, 4 Neuronen in der versteckten Schicht und ein Neuron im Ausgang. Als Trainingsvektor wurden die auf ihre Standardabweichung normalisierten offenen Preise des EURUSD1h verwendet. In Abb. zeigen die Kreise den gefundenen Trainingsfehler als Standardabweichung, gemittelt über 50 numerische Experimente ohne Normierung des Fehlers auf die Länge des Eingangsvektors. Die dünnen Linien zeigen die statistische Streuung auf dem 1/e-Niveau. Blau zeigt die Umsetzung dieses Prozesses für die anfängliche Randomisierung der Gewichte im Bereich 0. Rot zeigt den +/-1-Bereich mit einer bandförmigen Verteilung.

Es zeigt sich, dass NS viel besser lernt, wenn die Initialisierung der Gewichte durch Zufallswerte erfolgt, als wenn man bei Null anfängt. Darüber hinaus führt eine Vergrößerung des Bereichs der Anfangsrandomisierung der Gewichte im Allgemeinen zu einer Verringerung des endgültigen Lernfehlers. Dies hat jedoch zur Folge, dass sich die Anzahl der benötigten Epochen erhöht (das Diagramm als Ganzes wird größer).

 
Neutron >> :

So sieht der Prozess der Fehlerreduktion beim Lernen von zweischichtigen NS in Abhängigkeit von der Epochenzahl aus:

Das Netz hat 5 Eingänge, 4 Neuronen in der versteckten Schicht und ein Neuron im Ausgang. Als Trainingsvektor wurden die auf ihre Standardabweichung normalisierten offenen Preise des EURUSD1h verwendet. In Abb. zeigen die Kreise den gefundenen Trainingsfehler als Standardabweichung, gemittelt über 50 numerische Experimente ohne Normierung des Fehlers auf die Länge des Eingangsvektors. Die dünnen Linien zeigen die statistische Streuung auf dem 1/e-Niveau. Blau zeigt die Umsetzung dieses Prozesses für die anfängliche Randomisierung der Gewichte im Bereich 0. Rot zeigt den +/-1-Bereich mit einer bandförmigen Verteilung.

Es zeigt sich, dass NS viel besser lernt, wenn die Initialisierung der Gewichte durch Zufallswerte erfolgt, als wenn man bei Null anfängt. Darüber hinaus führt eine Vergrößerung des Bereichs der Anfangsrandomisierung der Gewichte im Allgemeinen zu einer Verringerung des endgültigen Lernfehlers. Dies hat jedoch zur Folge, dass sich die Anzahl der benötigten Epochen erhöht (das Diagramm als Ganzes wird größer).

Danke. Warum ist die statistische Streuung in der Nähe der blauen Kreise eingezeichnet? Wenn die Gewichte mit Nullwerten beginnen, sollte es keine statistische Streuung geben.

Eine weitere Frage. Wenn Sie EURUSD1h-Eröffnungskurse verwenden, die durch ihre Standardabweichung normalisiert sind, dann ist ihr Durchschnitt nicht Null. Oder haben Sie den Durchschnitt subtrahiert?