Einsatz künstlicher Intelligenz bei MTS - Seite 8

 

2 SergNF.

Ich bin vom Thema so weit entfernt wie der Südpol. Ich bin nur an Eugenks Beitrag hängengeblieben, aber niemand hat ihn unterstützt. Und als ich beschloss, den Experten zu beobachten, so lange und angespannt, um herauszufinden, wo die KI ist und wie man es zu lehren. :-))

Aber dann, als selbst die elementaren Fragen aus dem Ruder liefen, konnte ich nicht widerstehen und mischte mich ein. :-)

Über die Technologie wurde leider nur sehr wenig gesprochen. Meistens nur der Experte. Aber die Technologie ist sicherlich interessant. Ich habe einen Denkanstoß bekommen. Das Thema war also sehr nützlich für mich.

Diese Perlen sind sehr dünn, sie können nicht auf Devisen angewendet werden. :-)))

 
Ich kann nicht mehr zuschauen. Das ist alles Unsinn. SergNF, wo kann ich Perlen bekommen?
 
SergNF:

Sie nehmen Ihren Lieblingsindikator (wenn extern, über iCustom) und geben seinen Wert in eine Datei für einen bestimmten Betrag (wie viel Sie in der Zukunft vorhersagen wollen) HINTER und, es gibt Optionen, Close/High/Low "am ersten Bar" oder Highest/Lowest für dieses Intervall. Sie können analysieren und darüber nachdenken, wie Sie es anwenden können, indem Sie parallele Artikel von http://www.tora-centre.ru/library/ns/spekulant04.htm, http://www.tora-centre.ru/library/ns/spekulant03.htm lesen.
Vielen Dank, SergNF, für die Links. Ich habe mich vor mehr als einem Jahr selbst mit NS beschäftigt (in TradingSolutions und ziemlich direkt): Mit Hilfe des Jordan-Elman-Netzwerks habe ich versucht, das Hoch-Tief für einen Tag im Voraus vorherzusagen, indem ich verschiedene MAs an den Eingang anlegte. Primitiv, natürlich, aber auch hier habe ich eine Reihe nützlicher Schlussfolgerungen für mich selbst gezogen, nachdem ich im Laufe der Zeit Dutzende von sehr unterschiedlichen und kuriosen MAs konstruiert habe...

Damals dachte ich noch nicht an Klassifizierungen mit neuronalen Netzen und Kohonen-Maps - und kam zu dem voreiligen Schluss, dass die NS wenig nützlich waren, und begann dann mit GA zu experimentieren. Ich denke, mein Weg ist typisch für die meisten Händler, die in NS den Gral suchen - ohne sie ernsthaft zu studieren. Es scheint, dass ich jetzt, in Elliott'schen Begriffen, sagen kann, dass ich die Phasen der 1. Welle (einseitiger Probeangriff ohne ernsthaftes Training) und der 2. Welle (tiefe Abkühlung) im Umgang mit NS erfolgreich durchlaufen habe. Es ist Zeit für die Dritte Welle, hehe...
 
sashken:
Pyh schrieb:

P.S. Ich stimme der Meinung von Yurixx zu. Unhöflichkeit sollte nicht toleriert werden, auch wenn der Experte als sehr neugierig anerkannt werden sollte.
Sie haben mich nicht überzeugt. Ich verstehe sehr gut, dass die Prüfung nach Bareröffnungspreisen erfolgt, ABER! Er öffnet einen Balken und wir müssen (für diesen EA) den AC-Wert an vier Punkten finden, einschließlich des AC-Wertes des Balkens, der gerade geöffnet wurde. Woher bekommen wir AC, wenn es nur bei der Schließung des Balkens gebildet wird?

Sie selbst schreiben, dass die Bar eröffnet wurde, also gibt es einen Eröffnungspreis der Bar. Er (der Eröffnungskurs des Balkens) wird sich während der Balkenbildung nicht ändern (Hoch, Tief und Schluss können sich ändern, aber der Eröffnungskurs - nein, denn der Balken ist bereits geöffnet).

Ich hoffe, es ist klar:)
Das ist ihnen nicht klar. Viele wissen nicht, dass, wenn Volumen[0] == 1 (d.h. der erste Tick eines neuen Balkens), dann Сlose[0] == Open[0] == High[0] = Low[0], d.h. der Preis des letzten Balkenschlusses wurde bereits gebildet und wird von Tick zu Tick variieren, bis der Balken geschlossen wird. Und aus diesem sehr elementaren Analphabetismus und Behauptungen über die angeblich "passende" Qualität von Prüfungen.

Wir müssen nur mit unauslöschlicher Farbe auf die Stirn aller schicksalsergebenen Lahmärsche schreiben (oder besser noch, sie mit gehärtetem Eisen ausbrennen), dass: "Slose[0] ist das Bid des letzten Ticks, der am Terminal ankam, und nicht die telepathischen Fähigkeiten des Strategietesters".
 
eugenk1:
Leute, ich fand das, was Reshetov gemacht hat, sehr interessant. Natürlich gibt es keine künstliche Intelligenz, von der man sprechen könnte. KI ist notwendigerweise Anpassung und Training, zumindest eines neuronalen Netzes, zumindest eines linearen Filters. Aber ich denke, wir sollten eher über das Gruppenverhalten von Indikatoren sprechen. Jedem von ihnen wird ein Gewicht zugewiesen, das seine Bedeutung und Nützlichkeit widerspiegelt. Und es gibt eine gewichtete "Abstimmung" - Summierung. Das Einzige, was ich für 4 Indikatoren nehmen würde, sind 14 Parameter anstelle von 4, um alle möglichen Kombinationen von Parametern zu berücksichtigen. Ich denke, dass es möglich ist, auf diese Weise ein echtes adaptives System aufzubauen. Wir nehmen normalisierte Indizes (über die ich oben geschrieben habe) und schätzen die Qualität eines jeden von ihnen durch virtuelle Trades. Ein lügender Händler wird mit einer geringeren Gewichtung bestraft (bis hin zu negativ, was bedeutet "interpretiere mein Signal genau in die andere Richtung"), während ein gut funktionierender Händler mit einer höheren Gewichtung belohnt wird. Übrigens verdient dieses System wirklich den Titel "intelligent"... Wenn Sie 10 statt 4 Symbole nehmen, beträgt die Anzahl aller möglichen Kombinationen 1023. Welcher menschliche Verstand ist in der Lage, einen solchen Berg zu analysieren! Und das System kann...
Dieser Ansatz wird als adaptiv bezeichnet, obwohl der klassische Lernalgorithmus ganz anders ist, nämlich wenn:
  • Neuronka liegt, dann ist es "stubbed": w[i] i= a[i] für alle mit i bezeichneten Eingaben;
  • das Neuron eine richtige Antwort gegeben hat, erhält es eine "Karotte": w[i] += a[i] für alle mit i bezeichneten Eingaben;
Dann wird geprüft, ob sie lügt, und wenn sie wieder lügt, wird sie erneut auf den nackten Hintern "gepeitscht", bis sie aufhört zu lügen.
Es gibt sogar ein Theorem, an dessen Namen ich mich nicht mehr erinnere, das beweist, dass dieser Algorithmus konvergent ist, d.h. er wird früher oder später eine akzeptable Gleichung der Trennungsebene finden, aber nur dann, wenn identifizierbare Objekte im Merkmalsraum dieser Objekte linear trennbar sind.

Aber die Identifizierung durch Kaufen und Verkaufen ist nicht linear trennbar, so dass das neuronale Netz immer noch Fehler macht, selbst wenn man es mit klassischen Trainingsalgorithmen durch den Impuls laufen lässt.
 
Und doch - wenn das Programm selbst entscheidet, wann es sich öffnet/schließt, dann verfügt es per Definition über künstliche Intelligenz.
Und der Prozess der Optimierung des Expert Advisors ist die Ausbildung dieses Systems.
 
Itso:
Und doch - wenn das Programm selbst entscheidet, wann es sich öffnet/schließt, dann verfügt es per Definition über künstliche Intelligenz.
Und der Prozess der Optimierung des Expert Advisors ist die Ausbildung dieses Systems.
Selbst wenn der Händler entscheidet, wann er öffnet, wo er öffnet und wann er schließt, bedeutet das nicht, dass er intelligent ist. Dem Spätzünder kann beigebracht werden, Knöpfe zu drücken. Aber die Entscheidung dieses Idioten, auf Knöpfe zu drücken, wird nicht aus handelstechnischer Sicht intelligent sein, sondern subjektiv (zum Beispiel wird die Farbe der Knöpfe subjektiv attraktiver sein, um eine Entscheidung zu treffen, nicht der Aktienwert).
 
Mathemat писал (а):
Ich habe vor mehr als einem Jahr selbst mit NS experimentiert (in TradingSolutions und auf recht einfache Weise): Ich habe versucht, das Hoch-Tief einen Tag im Voraus vorherzusagen, indem ich verschiedene MAs in den Input einspeiste und das Jordan-Elman-Netzwerk verwendete.

Genau, ich habe nur mit den Neuronen herumgespielt. Wenn Sie sich ernsthaft damit beschäftigen würden, wüssten Sie eine mathematisch fundierte Tatsache: "Neuronale Netze eignen sich zur Identifizierung, aber sie sind absolut ungeeignet für die Extrapolation", und folglich können sie keine Werte für einen beliebigen Zeitraum vorhersagen - die Ergebnisse werden plus oder minus Kilometer sein. In vielen Fällen ist es jedoch möglich, mit einem gewissen Grad an Zuverlässigkeit festzustellen, welches Objekt zu welcher Klasse gehört.

Zum Beispiel können wir versuchen, die profitabelste Position (Kauf oder Verkauf) anhand der Werte der Indizes und Oszillatoren zu ermitteln. Und es kann funktionieren, denn die Aufgabe ist identifizierbar. Wenn Sie jedoch versuchen, mit Hilfe der Neuronik zu berechnen, wo der Take-Profit bei genau diesen Posen liegen sollte, können Sie bei Tests erfolgreich sein, aber außerhalb der Stichprobe ist dies unwahrscheinlich, da der Take-Profit-Wert eine Extrapolation ist - der Preis sollte ihn zumindest berühren (zur Bestimmung der Ziele ist es wahrscheinlich besser, Fuzzles zu verwenden).

Einfach ausgedrückt: Sie haben versucht, mit einem Fernseher Nägel in Betonwände zu schlagen.

Ausführlichere Schlussfolgerungen und mathematische Berechnungen, die auf der Grundlage der nach Abschluss des Perceptron-Projekts erzielten Ergebnisse durchgeführt wurden, können in dem Buch nachgelesen werden:

Minsky, M und Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

Übersetzung verfügbar:

Minsky M., Papert S. The Perseptron: Aus dem Englischen übersetzt: Mir, 1971. - с. 261

Mein Rat, Kinder, bevor ihr herumalbert und bevor ihr aus den Ergebnissen des Herumalberns wichtige Schlussfolgerungen zieht, solltet ihr zuerst versuchen, die Materialien zu diesem Thema zu studieren. Erstens schadet es nicht, und zweitens kann man so nicht auf die Harke treten, was jeder schon lange weiß.
 
Reshetov писал (а):
Minsky, M und Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

Übersetzung verfügbar:

Minsky M., Papert S. The Perseptron: Aus dem Englischen übersetzt: Mir, 1971. - с. 261

Mein Rat, Kinder, bevor ihr herumalbert und bevor ihr aus den Ergebnissen des Herumalberns wichtige Schlussfolgerungen zieht, solltet ihr zuerst versuchen, die Materialien zu diesem Thema zu studieren. Erstens schadet es nicht, und zweitens kann man so nicht auf die Harke treten, was jeder schon lange weiß.
Vielen Dank für den Hinweis auf die Quelle. Und was das Quellenmaterial betrifft, so habe ich es kennengelernt - und zwar durch Veröffentlichungen über Neuro-Prognosen, die immer noch in Arbeit sind und sogar die Eignung von Neuro behaupten - trotz Ihres kategorischen Urteils über die Unbrauchbarkeit von Neuro für Interpolationsaufgaben(Reshetov, genau Inter-, nicht Extrapolation; das sollten Sie doch wissen, wenn Sie so klug über lineare Trennbarkeit reden... Übrigens, wenn ich mich nicht irre, hat Minskys Theorem über die Unlösbarkeit eines linearen Nicht-Trennbarkeits-Problems (z. B. XOR) durch ein Perzeptron das Interesse an der Neurologie wirklich abgekühlt - aber nur, bis man über mehrschichtige Netze nachdachte).
 
Mathemat:
Reshetov:
Minsky, M und Papert, S (1969) The PERCEPTRON; an Introduction to Computational Geometry, MIT Press, Massachusets

verfügbare Übersetzung:

Minsky M., Papert S. Perseptrons: Per. - с.

Mein Rat an Sie, meine lieben Freunde, bevor Sie herumalbern und daraus öffentlich bedeutsame Schlüsse ziehen, machen Sie sich zunächst mit der verfügbaren Literatur zu diesem Thema vertraut. Erstens tut es nicht weh, und zweitens kann man so nicht auf eine Harke treten, über die schon lange alles bekannt ist.
Vielen Dank für den Hinweis auf die Quelle. Nun, was die Matrix angeht, bin ich tatsächlich vertraut - durch Veröffentlichungen zum Thema Neuro-Prediction. Solche Veröffentlichungen sind immer noch in Arbeit und behaupten sogar die Eignung von Neuro - trotz Ihres kategorischen Urteils über die Untauglichkeit von Neuro für Interpolationsprobleme(Reshetov, genau Inter-, nicht Extrapolation; Sie sollten es sicher wissen, wenn Sie so klug über lineare Trennbarkeit argumentieren... Übrigens, wenn ich mich nicht irre, hat Minskys Theorem über die Unlösbarkeit eines linearen Nicht-Trennbarkeits-Problems (z. B. XOR) durch ein Perzeptron das Interesse an der Neurologie wirklich abgekühlt - aber nur bis zur Erfindung der mehrschichtigen Netze).
Die Artikel sind Artikel, aber der geometrische Sinn geht ins Leere. Und es ist so, dass ein linearer Filter es erlaubt, Fliegen von Koteletts zu trennen, wenn die Koordinaten (Werte der Merkmale) eben dieser Objekte mit einer linearen Ebene unter der Bedingung der linearen Trennbarkeit bekannt sind. Es gibt jedoch keine Lösung für das umgekehrte Problem, d. h. die Benennung eines Objekts für ein Neuron, um seine Koordinaten zu ermitteln. Alles, was wir über das Objekt herausfinden können, ist, auf welcher Seite der Trennebene es sich befindet. Interpolation und Extrapolation kommen daher nicht in Frage.
Grund der Beschwerde: