Marktknigge oder gute Manieren im Minenfeld - Seite 18

 
paralocus >> :

Neutron, ich wollte auch nach der Ausbildung von Hebb fragen (gelesen von Wasserman). Es scheint, dass die Formel für die Korrektur der Gewichte dort sehr einfach ist:

Wij(t+1) = Wij(t) + [OUTi(t) - OUTi(t-1)]*[OUTj(t) - OUTj(t-1)] und kein Abfall der Steigung. Wird es funktionieren?

Lesen Sie, für welche Netze und in welchen Fällen es verwendet wird.

 
HideYourRichess писал(а) >>

Ich habe eine feste Größe. Wenn Ihre Gewinn-/Verlustbeträge nach einem normalen Gesetz verteilt sind, vermute ich außerdem, dass dies einem festen Betrag entspricht.

Jetzt sind auch meine Bestechungsgelder für Verlierer und Gewinner gleich groß. Dafür musste ich durch alle TC zu graben, schärfen sie zu einer festen Größe der Tricks, aber Sie können alle die Macht der optimalen MM, die in diesem Fall hat eine genaue analytische Darstellung und darüber hinaus auf lange Sicht, wenn die Wiederanlage von Mitteln, keine andere TS anders als diese wird nicht mehr Rentabilität zu geben! Fairerweise sollte angemerkt werden, dass diese Aussage im Allgemeinen nicht zutrifft und eine Strategie mit höherer Rendite existiert, aber nur bei einem Trendmarkt und einem hohen Grad an Vorhersagbarkeit(p>0,2), was für den Markt nie der Fall ist. Diese Strategie würde darin bestehen, "Verluste einzuschließen, um Gewinne wachsen zu lassen".

Die Abbildung links zeigt das bekannte Bild des Logarithmus des optimalen TS-Gewinns für verschiedene Werte des Handelshebels L. Es kombiniert die Ergebnisse der numerischen Simulation durch die Monte-Carlo-Methode des Betriebs von TS zu Kursen identisch mit dem Markt (EURUSD) unter Berücksichtigung der Kommission - Sp. Die Mittelwertbildung wird für 200 unabhängige Handelssitzungen durchgeführt, wobei in jeder Sitzung 1000 Geschäfte getätigt werden. Das Anfangskapital wird mit 1 angenommen (ln(1)=0), die Whisker zeigen die typische Streuung der Handelsergebnisse auf der Ebene 1/e. Blau zeigt das Ergebnis der analytischen Lösung der grundlegenden Handelsgleichung:

...1.

Übrigens, Edward Thorpes Arbeit "Kelly's Criterion in Blackjack, Sports and Stock Market" bietet eine analytische Lösung für die Varianz des Kontostandes am Ende des Handels und ermöglicht es, die Bandbreite abzuschätzen, in der sich unser Konto nach n-Transaktionen wahrscheinlich befinden wird. Allerdings hat Thorpe bei der Ableitung einen Fehler gemacht und das Ergebnis entspricht nicht der Realität. Ich konnte eine ähnliche Beziehung herstellen, und das Ergebnis wird als Linien aus blauen Kreisen dargestellt. Sie können die hervorragende Übereinstimmung mit den Ergebnissen der numerischen Experimente sehen. Hier ist ein Ausdruck für die Varianz der Ergebnisse von Geschäften mit reinvestierten Mitteln:

............................................... 2.

Für uns als Händler liegt das Hauptinteresse natürlich in der Analyse des Risikos des völligen Ruins. Die Abbildung rechts zeigt die Ergebnisse der numerischen Simulation des maximalen Einlagenrückgangs als Prozentsatz des aktuellen Wertes (blaue Linie). Wir können sehen, dass je größer die Hebelwirkung ist, desto riskanter ist der Drawdown des Kontos. Wir können den Durchschnittswert dieser maximalen Drawdowns und die Streuung des Prozesses (rote Daten) finden. Leider ist dieses Merkmal des Handelsprozesses kaum aussagekräftig. Mit zunehmender Zeit, die ein Händler auf dem Markt verbringt, steigt die Zahl der durchgeführten Transaktionen und damit auch das Risiko des Ruins. Das heißt, die Tatsache des Konkurses ist nur eine Frage der Zeit! Und ganz gleich, wie vorsichtig man beim Handel taktiert, früher oder später wird man auf den Nullpunkt gebracht! Das ist wahr. Es ist wichtig, rechtzeitig aufzuhören und die Creme abzunehmen. In jedem Fall garantiert das optimale MM die maximale Wachstumsrate der Einlage bei den gemessenen Parametern des TS (Grad der Vorhersagbarkeit - p und der Handelshorizont - H). Ja, wir werden die Einlage verlieren, aber wir werden auch neu anfangen und die Gesamtwachstumsrate unseres Wohlstands (unter Berücksichtigung möglicher Verluste) wird die höchstmögliche in der Natur sein!

Ich möchte Sie daran erinnern, dass ein optimales MM die maximale Einlagenwachstumsrate nur dann garantiert, wenn die TS positiv MO ist, oder, ähnlich, wenn p>0 und ich möchte anmerken, dass die Einlagenwachstumsrate (der Kehrwert der charakteristischen Zeit der Einlagenverdopplung) bei optimalen Werten der Hebelwirkung und des Handelshorizonts signifikant mit zunehmender Glaubwürdigkeit der Prognose p ansteigt:

................................................................................... 3.

- als den vierten Grad des Parameters. In einer solchen Situation ist es sehr wichtig, die größtmöglichen Anstrengungen in die Entwicklung eines solchen TS zu stecken, der es ermöglicht, die höchstmögliche Vorhersagegenauigkeit zu erreichen, und wenn dies eine Erhöhung der Kapazität des NS (der Anzahl der Neuronen in der verborgenen Schicht) erfordert, sollte man keine Energie und Zeit scheuen, denn das Ziel lohnt sich. Nun, das Ziel der TK-Optimierung ist es, die maximale Funktionalität zu finden:

......................... 4.

Sie wird durch die Suche nach nur einem Parameter - dem H-Handelshorizont- gesucht, dann wird die ihm entsprechende Vorhersagezuverlässigkeit berechnet - p. Der gefundene H-Wert gilt als optimal und wird so lange gehandelt, wie sich der allgemeine Markttrend nicht ändert. Der Markt wird ständig überwacht. Glücklicherweise ist dies nicht ressourcenintensiv, wenn eine analytische Lösung verfügbar ist.

Es wird gezeigt, dass bei der Wiederanlage der Mittel der optimale TS der Bernoulli-TS ist, d.h. der TS, bei dem SL und TP der Order gleich sind und gleich Hopt, der durch Maximierung des Funktionals auf der Grundlage der Handelsergebnisse gefunden wurde. Darüber hinaus gibt es eine optimale Hebelwirkung Lopt, die die maximale Wachstumsrate der Einlagen bietet, so dass jedes andere MM einen geringeren Gewinn in einem langen Zeitintervall ergibt:

......................................................................... 5.

An dieser Stelle kann das Thema eines optimalen MM beim Arbeiten mit einem Instrument als theoretisch gelöst und praktisch abgeschlossen betrachtet werden. Die Frage nach der Maximierung der Zuverlässigkeit der Vorhersage von Kurssteigerungen für die angegebene Handelsspanne Hopt bleibt ungelöst. Es ist offensichtlich, dass diese Aufgabe für das Neuronale Netz mit einem Re-Learning-Block bei jeder Transaktion.

 
Neutron >> :

Sie lösen nun das Problem der optimalen Eingabe des NS. Natürlich können Sie auch alle möglichen Indizes in die Eingabe eingeben und hoffen, dass das Raster entscheidet, was das Beste für sie ist. Aber es ist besser zu überlegen: "Was ist der optimale TS auf dem Markt? Vielleicht sollten Sie seine Momente vorhersagen?

Lesen Sie dieses Werk. Natürlich gibt es einige Pannen, aber sie sind nicht prinzipiell:

Bei der Lektüre von Ezhov drängt sich mir der Verdacht auf, dass die Induks, zumindest in dieser Form, gar nicht notwendig sind! All diese RSIs und Stochasticks nützen nichts::)

 

Das sage ich schon seit langem.

Tatsache ist, dass ein erheblicher Anteil aller in der TA verwendeten Indikatoren auf der Durchschnittsbildung von Preisreihen beruht. Der RSI enthält zum Beispiel den Durchschnitt der positiven und den Durchschnitt der negativen Kurssteigerungen. Das wäre in Ordnung, aber die unvermeidliche FP, die bei dem Versuch, den durchschnittlichen Blutdruck zu ermitteln, auftritt, macht alle unsere Bemühungen zunichte. Und das ist kein Zufall; es lässt sich eindeutig nachweisen, dass die BP-Vorhersage mittels Glättung nur für GR möglich ist, deren Messwerte der ersten Differenz positiv korreliert sind. Bei preisgebundenen GP ist diese Bedingung nie erfüllt! Daher die zwangsläufig enttäuschenden Ergebnisse. Sie können die Preisreihen für die Prognose nicht mitteln oder glätten. Sie brauchen andere Analyseansätze. Insbesondere Regressionsmethoden (wenn es ein Modell gibt) oder neuronale Netzmethoden (wenn es kein Modell gibt).

Das Schöne an der analytischen Lösung, die ich im letzten Beitrag vorgestellt habe, ist, dass wir eine explizite Funktion (4) haben, deren Maximierung auf NS übertragen werden kann. Unsere Aufgabe ist in diesem Fall sehr einfach - wir müssen dafür sorgen, dass das Internet nicht abfällt :-)

 
Neutron >> :

Das sage ich schon seit langem.

Tatsache ist, dass ein erheblicher Anteil aller in der TA verwendeten Indikatoren auf der Durchschnittsbildung von Preisreihen beruht. Der RSI enthält zum Beispiel den Durchschnitt der positiven und den Durchschnitt der negativen Kurssteigerungen. Das wäre in Ordnung, aber die unvermeidliche FP, die bei dem Versuch, den durchschnittlichen Blutdruck zu ermitteln, auftritt, macht alle unsere Bemühungen zunichte. Und das ist kein Zufall; es lässt sich eindeutig nachweisen, dass die BP-Vorhersage mittels Glättung nur für GR möglich ist, deren Messwerte der ersten Differenz positiv korreliert sind. Bei preisgebundenen GP ist diese Bedingung nie erfüllt! Daher die zwangsläufig enttäuschenden Ergebnisse. Sie können die Preisreihen für die Prognose nicht mitteln oder glätten. Sie brauchen andere Analyseansätze. Insbesondere Regressionsmethoden (wenn es ein Modell gibt) oder neuronale Netzmethoden (wenn es kein Modell gibt).

Das Schöne an der analytischen Lösung, die ich im vorigen Beitrag vorgestellt habe, ist, dass wir explizit das Funktional (4) erhalten, dessen Maximierung auf NS übertragen werden kann. Unsere Aufgabe ist in diesem Fall sehr einfach - wir müssen dafür sorgen, dass das Internet nicht abstürzt :-)

Neutron, ich glaube, ich fange an, etwas zu verstehen! Ich habe eine Menge Fragen und sogar ein paar Ideen.

Truthähne aus! Gestern habe ich ein lustiges Experiment durchgeführt: Ich wollte herausfinden, wie gut ein Perzeptron in der Lage ist, die Inkremente vorherzusagen.

Das Bild zeigt EIN !!! Perceptron für 2 Monate nach der Optimierung. Ich bin schockiert!



Ich habe eine Menge Fragen, die ich nicht alle auf einmal beantworten kann.

1. Ich beeinflusse das Eingangssignal durch eine Hypertangente, und um seine Verteilungsdichte auszugleichen, multipliziere ich das Signal zunächst mit dem Koeffizienten K > 1 (vor der Hypertangente).

In den meisten Fällen ist es möglich, eine ziemlich gleichmäßige Verteilung zu erhalten, d. h. wir erhalten die folgende Funktion: F(t) = tn(K * Y(t)). Ich wähle K empirisch, mit einem speziell geschärften Indikator. Dies ist jedoch nicht immer möglich. Normalerweise sieht die Dichte der Hypertangensverteilung des Eingangssignals vor der Multiplikation dieses Signals mit K wie folgt aus:



Und nach der Multiplikation mit K sieht es so aus:


Das heißt, das Eingangssignal (sein Hypertangens) wird gewissermaßen über einen Bereich von +/-1 gestreckt.

Im Falle von BP-Inkrementen erhalten wir jedoch ein Signal, das sich nicht auf eine Gleichverteilung reduzieren lässt.

Hier ist das Signal vor der Multiplikation:


Nach der Multiplikation: (dies in meinem Indikator zu sehen ist nicht immer möglich, da die Mitte "verschwindet")



Da ich bereits gesehen habe, dass die Aufhellung des Inputs die Qualität des Lernens und damit die Vorhersagbarkeit erheblich beeinträchtigt, würde ich gerne wissen, ob es keine andere Methode als die Signalmultiplikation gibt?

Und wenn nicht, was ist zu tun?

 
Neutron >> :

Das Schöne an der analytischen Lösung, die ich im vorigen Beitrag gegeben habe, ist, dass wir explizit das Funktional (4) erhalten haben, dessen Maximierung auf NS übertragen werden kann. Unsere Aufgabe ist in diesem Fall sehr einfach - wir müssen dafür sorgen, dass das Internet nicht abfällt :-)

Das Hauptthema dieses Threads habe ich bereits zu schätzen gelernt! -:) Du bist ein Genie und ich mache keine Witze!

Ich habe eine Idee. Möglicherweise ein neuer. Ich hatte gestern Abend einen "Kurzschluss"... auf allen Ebenen meines persönlichen neuronalen Netzes -:)

Der Punkt ist, dass ich den Menschen mein ganzes Leben lang studiert habe, nicht nur im Kontext seiner sozialen und persönlichen Verwirklichung - denn all das ist "Oberfläche" - sondern als ganzheitliches Phänomen des Seins und als "Gefäß des Bewusstseins". Über Nacht wurde alles, was ich im Laufe der Jahre gesammelt hatte, von einer strukturierten Sammlung von Fakten und Annahmen zu einem integralen Ganzen systematisiert (selbstorganisiert).

Ich kann meine Freude nicht verbergen! Oh, nun... Das war eine Abschweifung.

Die Idee ist einfach:

Um die Robustheit von NSs jeder Größenordnung und jedes Zwecks zu erhöhen, muss man versuchen, sie zu infizieren... infizieren sie. Für die deterministische Logik einer Turing-Maschine ist ein Virus sicherlich tödlich - für NS und künstliche Intelligenz kann er sich bei richtiger, "dosierter" Anwendung als "lebendiges Wasser" erweisen. Lassen Sie uns nun eins nach dem anderen besprechen:

1. Alle lebenden Organismen sind die Essenz neuronaler Netze. Diese Behauptung mag zu kühn erscheinen, aber sie ist eine phänomenologische Tatsache.

2. Alle lebenden Organismen werden zum Zweck des Lernens in ein aggressives Umfeld gestellt - wir nennen das Evolution. Wir müssen uns nur daran erinnern, dass mit der Evolution der Formen auch eine kontinuierliche Evolution der individuellen Bewusstseine stattfindet, die in diesen Formen verkörpert sind. Das Bewusstsein selbst ist ein Effekt der Komplexität des Systems (neuronales Netzwerk), und sein evolutionärer "Planck" - :), nehme ich an - ist das Verhältnis der Komplexität des Systems zur Entropie des Systems.

3. Systeme, deren Entropie unter eine bestimmte Grenze gesunken ist, sterben aus, weil sie sich nicht mehr weiterentwickeln können; Systeme, deren Entropie über eine bestimmte Grenze gestiegen ist, zerstören sich jedoch auch selbst. Daraus ergibt sich die Schlussfolgerung: Damit sich ein System erfolgreich weiterentwickeln kann, muss seine Entropie in regelmäßigen Abständen für eine bestimmte Zeitspanne die maximal zulässigen Werte des jeweiligen Systems erreichen. Einen solchen Zustand nennen wir eine "Krankheit". Wenn ich das Wort "Krankheit" sage, meine ich das in einem ziemlich weiten Sinne - ein ganz gesund aussehender Krimineller ist ein kranker Mensch. Nur ist es nicht sein Körper, der krank ist, sondern sein Geist und der Schmerz, den er empfängt, meist nicht in Form von Fieber oder Grippe, sondern in Form eines so genannten "schweren Kreuzes", "Schicksals" und so weiter. Dieser "soziale" Schmerz, den sie erleiden, ist jedoch eine Art lehrender Einfluss des evolutionären Kontinuums, der die Entropie des Lebewesens auf ein kaum erträgliches Maß anhebt. Dies wirft eine philosophische Frage über den Lehrer und seine Ziele auf... die jedoch den Rahmen unserer Forumsdiskussion bei weitem sprengen würde -:)

4. Diejenigen, die überleben, haben eine Immunität im weitesten Sinne entwickelt, d.h. nicht nur gegen Krankheitserreger und soziale Faktoren, sondern - was für die Evolution noch wichtiger ist - transaktionale externe und transaktionale interne.

5. In jedem lebenden System gibt es solche "Mikroorganismen", die es mit Sicherheit töten werden, wenn die Immunität ausreichend geschwächt ist. Warum hat die Natur das getan? Um die Fähigkeit desselben Systems zu erhöhen, den Faktoren der Umwelt zu widerstehen, d.h. um mehr Möglichkeiten (Zeit) für die Fortsetzung der individuellen Evolution durch ständiges internes "Training" des Systems zum Überleben zu haben.

6. Gehen wir davon aus, dass die Aufgabe eines sich entwickelnden Systems darin besteht, Immunität (im wahrsten Sinne des Wortes) zu entwickeln. Dann stellt sich etwas Interessantes heraus: Die Anzahl der Eingänge von lebenden NS sowie die Anzahl der Ausgänge (noch weniger) ist lächerlich klein im Vergleich zur Anzahl ihrer Neuronen und Verbindungen! D.h. wir erhöhen die Anzahl der Neuronen in der Zwischenschicht stark (wenn es drei Schichten gibt - Eingabe, versteckte Schicht und Ausgabe), und nun können wir versuchen, die NS zu "infizieren". Dies kann durch die Einführung eines dosierten Zufallsfehlers bei der Korrektur der Gewichte erreicht werden! Und wenn man noch etwas weiter geht, ist ein alternatives Training des NS durch Erhöhung oder Verringerung der Häufigkeit oder Amplitude dieses zufälligen Fehlers möglich.

Beispielsweise könnte man vor der Korrektur der Gewichte versuchen, dem Korrektor einen kleinen Fehler hinzuzufügen, und zwar mit einer Funktion, die (zufällig) alle 1000 Aufrufe einen Zufallswert aus einem bestimmten Bereich zurückgibt (z. B. +0,01 / -0,01 ). Es ist nicht bekannt, wann oder welches Neuron einen kleinen fehlerhaften Inkrementwert erhält. Je häufiger solche Inkremente auftreten, desto höher ist die Entropie des Systems. In diesem Fall muss die NS-Regierung Folgendes berücksichtigen... seinen eigenen Fehler!

Solche Gedanken...

 
Neutron >> :

Das alles ist großartig, bis auf eine Kleinigkeit. Sie haben einen Fehler in der ursprünglichen Formel. Der Punkt ist, dass der Ausdruck 1+(L*(sigma*H-Sp)/S) nicht gleichbedeutend mit dem Kapitalgewinn pro Handel ist, den Sie stattdessen mit diesem Ausdruck versuchen. Ehrlich gesagt, verstehe ich nicht, auf welcher Grundlage Sie das für "offensichtlich" halten. Das ist der erste Punkt. Zweitens muss die Formel für verschiedene Währungspaare unterschiedlich sein. Es gibt nur drei Versionen der Formel: für Paare mit "direkten Kursen", "inversen Kursen" und "Kreuzkursen". Bei "Straight-Quote"-Paaren beispielsweise lässt sich der Gewinn als Bruchteil des Gesamtkapitals wie folgt berechnen: (TakeProfit-Spread)*Größe_eines_Loses*Anzahl_der_Lose/Einzahlung. Um das Verstärkungsverhältnis zu ermitteln, muss in der Formel 1 hinzugefügt werden. Der Ausdruck "size_one_lot*number_lots" ist das an der Transaktion beteiligte Geldvolumen, wobei die Hebelwirkung berücksichtigt wird. Allgemeiner ausgedrückt, gab es in den Artikeln für direkte Notierungen eine Formel: Finanzielles Ergebnis = (Verkaufspreis - Ankaufspreis) * Anzahl der Lose * Größe eines Loses - Provision * Anzahl der Lose ± Bankzinsen. In dieser Formel wird der Spread direkt in die Preise eingerechnet.

 
HideYourRichess писал(а) >>

Das ist alles großartig, bis auf eine Kleinigkeit. Sie haben einen Fehler in der ursprünglichen Formel. Der Punkt ist, dass 1+(L*(sigma*H-Sp)/S) nicht mit dem Kapitalgewinn pro Handel gleichzusetzen ist, den Sie zu verwenden versuchen.

Vielen Dank, HideYourRichess, dass Sie sich die Mühe gemacht haben, die Berechnungen zu überprüfen. Ich weiß, wie schmerzhaft es ist, die Berechnungen eines anderen zu überprüfen. Natürlich schließe ich Fehler in den Formeln und den Annahmen, aus denen sie abgeleitet sind, nicht aus, daher versuche ich, die Ergebnisse der analytischen Lösung durch numerische Experimente zu überprüfen. In unserem Fall haben wir den Prozess der diskreten Preiserhöhung mit dem gleichen Erhöhungsschritt H Punkte modelliert. Außerdem gab es eine feste Abhängigkeit des erwarteten Inkrements vom vorherigen Inkrement: p= Summe aller aufeinanderfolgenden Inkremente geteilt durch die doppelte Anzahl aller Bewegungen. Für einen realen Marktquotienten können Sie eine ähnliche Aufschlüsselung anzeigen und den entsprechenden Koeffizienten p finden.

Die Ergebnisse der numerischen Modellierung stimmen also vollkommen mit den von mir ermittelten Ergebnissen der analytischen Lösung überein (siehe Abb. links oben). Es gibt also keinen Fehler in dieser Formulierung des Problems und seiner analytischen Lösung! Man kann über die Übereinstimmung des Modells mit der Realität streiten, aber das ist kein Problem - ich kann diese Partitionierung jederzeit auf einen Quotienten anwenden und p finden .

paralocus schrieb >>

Ich habe es bereits geschafft, das Hauptthema dieses Threads zu schätzen!

Danke für die freundlichen Worte, aber was ist so besonders daran, zu wissen, wie man die Ableitungen nimmt und den Extremwert einer Funktion findet? Viele Menschen wollen sich einfach nicht mit einer detaillierten Analyse befassen, es ist einfacher, direkt zum Steinbruch zu eilen.

Ich werde später sorgfältig darüber nachdenken, was Sie oben geschrieben haben.

 
Neutron >> :

Vielen Dank für Ihre freundlichen Worte...


Ich danke Ihnen!

Hier ist eine weitere:

1. Eine andere Möglichkeit, das System zu infizieren, besteht darin, einen zusätzlichen zufälligen Input in ein Neuron oder eine Gruppe von Neuronen - ein Organ - einzuführen.

2. Ein "Organ" kann als eine spezialisierte Gruppe von Neuronen dargestellt werden, die eine universelle Rückkopplung haben - d.h. jedes Neuron des Organs "weiß", was am Ausgang jedes anderen Neurons seiner Gruppe (Organ oder Familie) ist, und jede Gruppe weiß, was am Ausgang des Organismus ist. Ein solches NS wird zur dynamischen Selbstanpassung fähig sein, und die Notwendigkeit des Lernens wird eines seiner Hauptmerkmale sein - d. h. das System kann zielgerichtet und selbstmotiviert das Wissen suchen und verallgemeinern, das es benötigt. Unsere Aufgabe wird es sein, Hindernisse für sie zu bauen und hier und da ein wenig Wissen zu verstreuen -:)

 
Neutron >> :


Die Ergebnisse der numerischen Simulation stimmen also vollkommen mit den von mir ermittelten Ergebnissen der analytischen Lösung überein (siehe Abb. links oben). Folglich gibt es keinen Fehler in dieser Formulierung des Problems und der erhaltenen analytischen Lösung! Man kann über die Übereinstimmung des Modells mit der Realität streiten, aber hier gibt es überhaupt kein Problem - ich kann die gegebene Partitionierung immer auf einen Quotienten anwenden und es gibt keine Probleme, p zu finden.


Hier gibt es ein wenig über Hebelwirkung und einige der damit verbundenen "Tricks". Dies ist eine Simulation auf einem Handelsserver-Emulator.