Diskussion zum Artikel "DeMarks Sequential (TD SEQUENTIAL) unter Verwendung künstlicher Intelligenz" - Seite 6

 
Mihail Marchukajtes:

Ich habe das Modell für 50 Datensätze erstellt und war an den Ergebnissen des Modells während des nächsten 50- oder 100%-Trainingsintervalls interessiert. Wenn Sie die Anzahl der Datensätze zur Erstellung des Modells erhöhen, ohne die Anzahl der Züge zu erhöhen. Die Generalisierungsfähigkeit nimmt dann ab. So ist es möglich, das Generalisierungsniveau auf akzeptable 65% zu reduzieren, indem man die Länge der Stichprobe reguliert. Wenn wir sagen, dass es ausreicht, Geld auf dem Markt zu verdienen, dann wird die Größe der Trainingsstichprobe viel höher sein und ein solches Modell wird viel länger funktionieren, aber viel schlechter als das Modell mit einem Generalisierungsniveau von 90%. Wendet man auf solche Modelle (65 %) das richtige MM- und Geldmanagement an, kann man eine Menge Geld verdienen.

Ich habe bereits gesagt, dass man nicht aus 50 Stichproben lernen kann, da die sehr verrauschten Daten der letzten Minute keine Informationen über alle Nuancen des Marktverhaltens enthalten, sondern man muss aus dem gesamten Satz lernen.

Ich weiß nicht, was Sie unter "Generalisierung" verstehen, aber die Berechnung der Genauigkeit steht für Sie immer noch in Frage. Die Algorithmen sind höher, selbst ein Nicht-Programmierer kann sie lesen. Zählen Sie, wie oft das Modell geraten hat, und teilen Sie es durch die Anzahl der Stichproben.

 
toxic:

Es gibt Fische, aber nicht mit solchen Daten. Bei Daten mit niedriger Frequenz berücksichtigt der Preis alles, bei reinen Marktdaten (Volumenpreis, Delta usw.) kann man nichts herausfinden, der Preis passt sich fast vollständig an Nachrichten und neue Informationen an, und zwar innerhalb weniger Minuten, und die Informationsverbreitung ist die wichtigste Marktineffizienz. Der Rest ist, vereinfacht ausgedrückt, einfach nur Insiderinformation. Man weiß nicht, wann und warum die Puppe viel kauft/verkauft und damit Trends schafft und wann sie aufhört.

Stellen Sie sich vor, Sie kämpfen, Ihr Erfolg in einem Kampf hängt davon ab, wie Sie die Schläge des Gegners vorhersehen, wie Sie die Haltung und den Beginn der Bewegung erkennen und entsprechende Ausweichmanöver einleiten, und wenn Sie die Ineffizienz der gegnerischen Verteidigung erkennen, greifen Sie an, beim Handel (Spekulation) ist es genauso, Sie können nicht beschließen, zwei Mal langsamer zu reagieren, Sie werden nicht zwei Mal weniger effizient, Sie verlieren völlig an Effizienz.

Nun ist die gesamte Spekulation automatisiert, alles, was auf der Verbreitung von Informationen beruht (statisch, Ereignisarbitrage usw.), alles HFT, es ist notwendigerweise ultra HFT wie in einigen MM, es ist eher wie "Algo-Scalping" (durchschnittliche Zeit des Haltens einer Position um eine Minute oder sogar 10 Minuten), aber wir sprechen nicht über Stunden und Tage, es gibt keine Informationen in den Preisen, alles ist antiquiert.

Aber im Allgemeinen, theoretisch ist es möglich, Stunden und sogar Tage vorherzusagen, aber nicht nur durch Marktdaten, ist es notwendig, Tausende von Parametern der menschlichen Aktivität in der ganzen Welt zu überwachen, vor allem in Bezug auf große Unternehmen, müssen wir das Wetter, die Menge des Verkehrs überall, soziale Aktivität der Menschen im Internet, vor allem wirft tn. "Ich habe zum Beispiel gehört, dass sie Fabriken aus dem Weltraum beobachten, um zu sehen, wie viel produziert wird, was sie reingebracht haben, was sie rausgenommen haben)))) Das ist an der Grenze zum Insider, aber nicht erwischt zu werden ist kein Diebstahl))))). Und all dies muss von einem Team guter Analysten in eine Zeichenform gebracht werden, ebenso wie ein Team von coolen Fundamentalprognostikern und die Sammlung von Daten aus offenen Prognosen und deren Analyse. In der Regel wird selbst eine mittelgroße Bank nicht über genügend Ressourcen verfügen, um das alles in Produktionsqualität umzusetzen und auszuarbeiten. Und auf der Basis nur des Preises mit dem Volumen der Tage ist es unmöglich, statistisch zuverlässig den zukünftigen Preis vorherzusagen, das ist ein Märchen für "Wette auf Rot und verdopple" ))))


Alles richtig, ich stimme völlig zu, aber das Marktpaar bildet Voraussetzungen, gut als Beispiel, nehmen wir das Signal "Sequenzen", nehmen wir an, dass ein Signal zum Kauf gebildet wurde und die NS sagt, dass das Signal "True" ist, aber nach einiger Zeit gibt es eine Änderung in der Marktsituation und das Signal verliert seine Relevanz und der Markt beginnt, gegen sie zu gehen, am Ende ist es als ein Netzwerk-Fehler abgeschrieben. Oder besser gesagt, es war kein Fehler. Zum Zeitpunkt des Signals war der Markt wirklich auf dem Weg nach oben, und erst dann hat er seine Meinung geändert. Dann bekommen wir einen Fehler und gut ist. Die Aufgabe ist es, so wenig Fehler wie möglich zu machen :-) Wie sieht es also mit der Optimierung meiner Daten aus?
 
Mihail Marchukajtes:

Wie kann ich also meine Daten optimieren?

150 Stichproben. Wow.

Okay, ich werde es heute Abend durchführen.

 
toxic:

Ich habe bereits gesagt, dass man nicht aus 50 Stichproben lernen kann. Die sehr verrauschten Daten der letzten Minute enthalten keine Informationen über alle Nuancen des Marktverhaltens, man muss aus dem gesamten Satz lernen.

Ich weiß nicht, was Sie unter "Generalisierung" verstehen, aber die Berechnung der Genauigkeit steht für Sie immer noch in Frage. Die Algorithmen sind höher, selbst ein Nicht-Programmierer kann sie lesen. Wir zählen, wie oft das Modell geraten hat, und teilen es durch die Anzahl der Stichproben.


Übrigens, ja, am Anfang, als ich Indikatorcodes und alles organisierte, zählte ich auf die Geschichte, welche Signale und wie viele, weil wir 4 Parameter haben (und alles hat für mich funktioniert). Aber es ist möglich, Signale zu zählen, wenn die Anzahl der Nullen und Einsen gleich ist, weil sonst beim Teilen einige Zeilen kopiert werden. Das heißt, wenn zwei Einsen fehlen, werden sie addiert (ich meine Trennzeichen). Jetzt werde ich versuchen, das Modell zu bekommen und zu demonstrieren, wie es an der Trainingsstichprobe funktioniert, aber dazu muss man die gleiche Menge an Daten mit Nullen und Einsen nehmen. Ein wenig später zählt die Maschine. Was die Trainingsdatei betrifft, so kann ich sie in 11 Spalten und 750 Zeilen umwandeln. Eine solche Datei wird bequemer sein????
 
Mihail Marchukajtes:

Übrigens ja, am Anfang, als ich Indikator-Codes und alles organisierte, zählte ich auf die Geschichte, welche Signale und wie viele, weil wir 4 Parameter haben (und alles funktionierte für mich). Aber es ist möglich, Signale zu zählen, wenn die Anzahl der Nullen und Einsen gleich ist, weil sonst beim Teilen einige Zeilen kopiert werden. Das heißt, wenn zwei Einsen fehlen, werden sie addiert (ich meine Trennzeichen). Jetzt werde ich versuchen, das Modell zu bekommen und zu demonstrieren, wie es an der Trainingsstichprobe funktioniert, aber dazu muss man die gleiche Menge an Daten mit Nullen und Einsen nehmen. Ein wenig später zählt die Maschine. Was die Trainingsdatei betrifft, so kann ich sie in 11 Spalten und 750 Zeilen umwandeln. Eine solche Datei wird bequemer sein????


11 Spalten und 750 Zeilen ist sicherlich besser, vielleicht kommt bei der Kreuzvalidierung noch etwas zusammen ...

Im Allgemeinen, legen Sie verschiedene Sätze, mit Low-Frequency-Datum und ihre Chips und Targeting, können Sie in einer privaten Nachricht, wenn das, was nicht für die Öffentlichkeit, ich gestehe, dass ich nicht tief graben Low-Frequency, wie ich sofort von "anspruchsvollen" zum Thema der Mangel an Informationen in es überzeugt war, so dass, wenn Sie meine Meinung ändern, werde ich dankbar sein, es wird mein Verständnis der Märkte drehen, ich bin bereit für sie, obwohl ich es für unwahrscheinlich.

 

Ja in der Tat, ich habe die Datei sofort vorbereitet, es sind die gleichen Daten, aber anders erhoben.

Nun, ich habe noch eine weitere Theorie, sozusagen eine Vermutung, ich möchte sie äußern und die Meinung nicht nur von Ihnen, tohis, hören. (Übrigens, wie heißen Sie? Es ist nämlich nicht üblich, sich mit Spitznamen anzureden), sondern auch von Wizard. Also, er ist alt in diesem Geschäft und ich erinnere mich, dass wir noch auf NSh kommuniziert.

Dateien:
 

Ich würde gerne ein anderes Thema diskutieren. Es geht darum, dass wir im Optimierungsprozess ein Modell erhalten und nach mehreren Optimierungen eine Reihe von sagen wir 5 Modellen (als Beispiel). Die Frage ist, wie man dasjenige auswählt, das in Zukunft am besten funktioniert. Ich werde nun einen Link zu der Vorlesung posten, bitte schauen Sie sich diese ab 33 Minuten an, wo er über den Grad des Polynoms und die Auswirkungen des Umlernens des Polynoms spricht. Der Graph der Fehlerminimierung. Lassen Sie uns also darüber sprechen.

Das heißt, die Aufgabe des Optimierers besteht darin, ein solches Modell so zu erstellen, dass der Grad der Annäherung bei minimaler Polynomdimension maximal ist, wenn ich ihn richtig verstehe. Das heißt, die Aufgabe besteht darin, ein solches Polynom zu bauen, das den Grad der Annäherung an die Ausgabe maximiert, aber nicht eine große Anzahl von Graden hat. Stellen wir uns nun vor, dass unser Optimierer weiß, wie man ein solches Polynom bildet, und dass wir bei wiederholter Optimierung der Daten ständig in einen bestimmten Bereich kommen, der an der Grenze zwischen Konvergenz und Übertraining liegt. Stellen wir uns vor, dass dies ein kleiner Bereich ist, aber egal wie oft wir dort hinkommen, wir werden immer Modelle erhalten, die in den Bereich der Suffizienz und nicht des Übertrainings kommen (schematisch gezeichnet, wie ich es konnte), ABER diese Modelle werden sich in Bezug auf die Ergebnisse der Arbeit in der Zukunft unterscheiden. Es geht also um die Wahl des Modells, das nach Meinung des Experten funktionieren wird. Vielleicht gibt es also Methoden zur Auswahl von Modellen für die Arbeit in der Zukunft?????.

Die Abbildung zeigt den Bereich, in dem die Ausbildung vollständig und ausreichend ist, wobei die Hauptsache ist, dass nicht übertrainiert wird.


001. Вводная лекция - К.В. Воронцов
001. Вводная лекция - К.В. Воронцов
  • 2014.12.22
  • www.youtube.com
Курс "Машинное обучение" является одним из основных курсов Школы, поэтому он является обязательным для всех студентов ШАД. Лектор: Константин Вячеславович Во...
 
Was ist überraschend, ist eine solche Anzahl von prsomotorovat, und niemand das Gespräch zu unterstützen. AWOOOOO Menschen.... Wo bist du? sind nur giftig und Wizard in das Thema... Ich kann es nicht glauben....
 
Mihail Marchukajtes:

Ja in der Tat, ich habe die Datei sofort vorbereitet, es sind die gleichen Daten, aber anders erhoben.

Nun, ich habe noch eine weitere Theorie, sozusagen eine Vermutung, ich möchte sie äußern und die Meinung nicht nur von Ihnen, tohis, hören. (Übrigens, wie heißen Sie? Es ist nämlich nicht üblich, sich mit Spitznamen anzusprechen), sondern auch von Wizard. So, dass er alt in diesem Geschäft ist und ich erinnere mich, dass wir noch auf der NSH kommuniziert.

Nun, im Allgemeinen, überraschenderweise, der erste Datensatz - enthält ein wenig Alpha, etwa 3-4% über dem zufälligen 50%, wenn Sie nicht zu viel Pflege, das heißt, theoretisch, mit einer größeren Anzahl von Proben kann bis zu 5-6% können herausgequetscht werden, die als für Stunden und Tage im Prinzip SEHR NICHT SCHLECHT, angesichts der Ponzi-Transaktionskosten. Hmmm... interessant, interessant... Es wäre nicht schlecht, wenn jemand anderes überprüfen würde, wie viele Informationen es gibt.

Das alles gilt natürlich nur, wenn die Zielvorgabe korrekt ist, wenn die Zielvorgabe keine vergangenen Renditen oder Preise enthält. Im Ziel sollte nur die künftige Rendite stehen, wenn Sie also z.B. Indizes haben, die zum Preis pt-n,...,pt-1,pt gebildet werden, sollte das Ziel nicht den Preis "sehen", zu dem die Zeichen gebildet werden, z.B. kann das Ziel das Vorzeichen der nächsten Rendite sein ((pt+2-pt+1)/pt+1).Sign(), aber wenn das Ziel sein wird ((pt+1-pt)/pt).Sign()), wird das Bild "verschwimmen" wird eine unrealistische Leistung des Modells zu bekommen, gefälschte"Gral", ist es wichtig zu berücksichtigen.


Der zweite Datensatz (der längere) ist überhaupt nicht gut, Sie haben ihn seltsam gestreckt, einige Merkmale auf andere)))) verschoben.

 
toxic:

Nun, im Allgemeinen, überraschend, der erste Datensatz - enthält ein wenig Alpha, etwa 3-4% über den zufälligen 50%, wenn Sie nicht zu viel Pflege, das heißt, theoretisch, mit mehr Proben können bis zu 5-6% herausgepresst werden, die wie für Stunden und Tage im Prinzip SEHR NICHT SCHLECHT, angesichts der ponzi Transaktionskosten. Hmmm... interessant, interessant... Es wäre nicht schlecht, wenn jemand anderes überprüfen würde, wie viele Informationen es gibt.

Das alles gilt natürlich nur, wenn die Zielvorgabe korrekt ist, wenn die Zielvorgabe keine vergangenen Renditen oder Preise enthält. Im Ziel sollte nur die künftige Rendite stehen, wenn Sie also z.B. Indizes haben, die zum Preis pt-n,...,pt-1,pt gebildet werden, sollte das Ziel nicht den Preis "sehen", zu dem die Zeichen gebildet werden, z.B. kann das Ziel das Vorzeichen der nächsten Rendite sein ((pt+2-pt+1)/pt+1).Sign(), aber wenn das Ziel sein wird ((pt+1-pt)/pt).Sign()), wird das Bild "verschwimmen" wird eine unrealistische Leistung des Modells zu bekommen, gefälschte "Gral", ist es wichtig zu berücksichtigen.


Der zweite Datensatz (der längere) ist überhaupt nicht gut, Sie haben ihn seltsam gestreckt, einige Merkmale auf andere)))) verschoben.


Ja, meine Ausgabe ist vorausschauend, machen Sie sich keine Sorgen über die Reinheit der Datenerfassung, ich bin da sehr vorsichtig.

Das waren 15 Minuten an Daten.

Beim zweiten Mal habe ich einfach die Spalten in Zeilen umgewandelt, jeweils 11 Stück und die Ausgabe multipliziert, es stellt sich heraus, dass wir, wenn wir ein Signal bekommen, 11 Spalten 5 Mal für ein Signal einreichen, man kann sogar einen Ausschuss auf dieser Ebene organisieren. Ich habe auch eine solche Datei für mich gemacht, sobald die Maschine frei ist, werde ich versuchen, zu spinnen.