Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2495

 
mytarmailS #:

..

Ja, ich weiß, ich weiß, beruhigen Sie sich)))

Wiederholen Sie Onkel Grunz :-)
 
Verrückt. Es sieht so aus, als ob neuronale Netze hier wirklich das Sagen hätten. Zumindest ein paar von meinen sind auf diesem Niveau...
 
eccocom #:
Thrash. Es sieht so aus, als ob neuronale Netze hier wirklich das Sagen hätten. Zumindest ein paar von meinen sind auf diesem Niveau...

lachte die ganze Kolchose und Fabrikschicht (ja, alle zusammen) :-)

Zeigen Sie mir ein Signal, das älter als ein Jahr ist und tatsächlich mit neuronalen Netzen funktioniert.

In der Regel wird nur von "neuronalen Netzen, Deep Learning" und anderem Unsinn gesprochen. Und wenn man bedenkt - Martingale, Sperren, Gitter und einfache MA. Die harte Realität: Einfache Algorithmen und einfacher Betrug herrschen vor.

---

So oft wie ich diesen Thread beobachte, sehe ich das Ergebnis: nur schöne (wirklich sehr gute) Artikel und persönliche Weiterentwicklung der Autoren

 
Maxim Kuznetsov #:

lacht die ganze Kolchose und Fabrikschicht (ja, alle zusammen) :-)

Zeigen Sie mir ein Signal, das älter als ein Jahr ist und tatsächlich mit neuronalen Netzen funktioniert.

In der Regel wird nur von "neuronalen Netzen, Deep Learning" und anderem Unsinn gesprochen. Und wenn man bedenkt - Martingale, Sperren, Gitter und einfache MA. Die harte Realität: Einfache Algorithmen und einfacher Betrug herrschen vor.

---

Immer wenn ich diesen Thread durchschaue, sehe ich das Ergebnis: nur schöne (wirklich sehr gute) Artikel und persönliche Weiterentwicklung der Autoren

Das habe ich nicht gemeint...

Und über neuronale Netze habe ich oben geschrieben, dass der Standard 55-56 ist, im Allgemeinen also nichts.

 
eccocom #:
Was die Modelle betrifft, so geht es nicht um sie, sondern um die Tatsache, dass KI im Wesentlichen ein Näherungswert ist...

das ist der Punkt, es geht um Modelle, die auf der Grundlage der mit der KI gefundenen Abhängigkeiten erstellt werden, -- und man muss nicht vom Modell zum NS gehen, sondern vom NS zum Modell -- unter bestimmten aktuellen Bedingungen arbeiten... Natürlich können sich die Bedingungen ändern...

als ich dachte, dass das Gleichgewicht auf dem klassischen AS-Segment und das Ungleichgewicht auf dem keynesianischen Segment liegt - laut Keyns - wurde mir bereits klar, dass der NS zur Bestimmung dieser Tatsache für mich global gesehen ziemlich irrelevant ist...

(und Annäherung ist nur 1 der KI-Fähigkeiten, + Optimierung, usw.),

Evgeniy Ilin # :

Alles, was Sie brauchen, steht in OHLC, der Rest der Daten wird daraus abgeleitet. Das Wichtigste ist ein flexibler Algorithmus, der einen Weg findet, OHLC in Daten umzuwandeln, die mehr Gewicht haben, was wiederum Aufgabe der Maschine ist. Außerdem ist nur der OHLC fast überall gleich, wenn man sich die Tick-Volumina oder etwas anderes ansieht, sind diese Daten anders, ebenso wie die Spreads und so weiter. Alles, was Sie brauchen, steht auf der Karte im Terminal.

Aber wenn Sie die Fähigkeit zum Deep Learning haben, ist es wahrscheinlich möglich... (Ich habe mir sogar gemerkt, wie man die Krümmung der "geraden Linie", wie bei einem Nebel, mit 1. und 2. Ableitung, Dank an den Autor des Zitats))

Und wenn es etwas bescheidener sein soll, können Sie auch eine Stichprobe für den aktuellen Moment durchführen... dann umschulen, wenn die Zinskurve beginnt, horizontal zu verlaufen...

aber wenn Sie zunächst Zeichen verwenden, die wirklich wichtig sind (logisch und wirtschaftlich), dann wird die Maschine selbst herausfinden, was den Markt im Moment antreibt (d.h. wovon der Fahrer im Moment am meisten abhängig ist)...

Mihail Marchukajtes hat einen sehr interessanten/logischen Ansatz und ich danke ihm für die Erklärung des Polynoms(ich werde versuchen, mich auch daran zu erinnern)... nur ein Mann, der Bescheid weiß!... aber wenn die andere Person nicht weiß und nicht wissen will, wie die Statistik der Vergangenheit (noch KEIN Modell!!!) funktioniert, so dass sie vernünftig verarbeitet und auf die Zukunft übertragen werden kann (natürlich mit einer 50/50-Wahrscheinlichkeit) - dann wird sie dem Modell, dem Neuron, dem Markt und den Bedingungen die Schuld geben... und übrigens ist die Veränderung des letzteren genau der Punkt, an dem man gute Inputs setzen kann! - Das Funktionsschema eines jeden Ökosystems, unabhängig von seiner Struktur, ist immer dasselbe: Bedingungen -> Reaktionen -> Folgen (und sogar Umweltfolgen).

Die wichtigste Fähigkeit eines Händlers ist es, zu wissen, wann er NICHT in den Markt einsteigen sollte ... imho!

P.S.

Und ob aus den gefundenen Stromabhängigkeiten und ihren Wechselwirkungen ein Modell entsteht, ist eine globale Frage... Und es geht nicht um den NS, sondern vielmehr um die Fähigkeiten des Gehirns des Verfassers der Beispielstudie, der den NS als Instrument, aber nicht als Grund für die Eingabe verwendet, und ohne ihm die Verantwortung für die Analyse und die Schlussfolgerungen zu übertragen

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.25
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

Das ist die Sache mit den Modellen, die auf der Grundlage der mit der KI gefundenen Abhängigkeiten erstellt werden - und man muss nicht von einem Modell zum NS gehen, sondern vom NS zu einem Modell -, die unter bestimmten aktuellen Bedingungen arbeiten... Natürlich können sich die Bedingungen ändern...

als ich dachte, dass das Gleichgewicht auf dem klassischen AS-Segment und das Ungleichgewicht auf dem keynesianischen Segment liegt - laut Keyns - wurde mir bereits klar, dass der NS zur Bestimmung dieser Tatsache für mich global gesehen ziemlich irrelevant ist...

(und Annäherung ist nur 1 der KI-Fähigkeiten, + Optimierung, usw.),

aber wenn die Kapazität für Deep Learning vorhanden ist, ist es wohl möglich... (Ich habe mir sogar gemerkt, wie man die Krümmung einer "geraden Linie", wie bei Nebel, mit Hilfe der 1. und 2. Ableitung, Dank an den Autor des Zitats))

Und wenn es etwas bescheidener sein soll, können Sie auch eine Stichprobe für den aktuellen Moment durchführen... dann umschulen, wenn die Renditekurve horizontal zu verlaufen beginnt...

aber wenn Sie zunächst wirklich relevante Attribute verwenden (logisch und wirtschaftlich), dann wird die Maschine selbst herausfinden, was den Markt im Moment bewegt (d.h. wovon der Fahrer am meisten abhängt)...

Mihail Marchukajtes hat einen sehr interessanten/logischen Ansatz und ich danke ihm für die Erklärung des Polynoms (ich werde versuchen, mich auch daran zu erinnern)... nur ein Mann, der Bescheid weiß!... aber wenn die andere Person nicht weiß und nicht wissen will, wie die Statistik der Vergangenheit (noch KEIN Modell!!!) funktioniert, so dass sie vernünftig verarbeitet und auf die Zukunft übertragen werden kann (natürlich mit einer 50/50-Wahrscheinlichkeit) - dann wird sie dem Modell, dem Neuron, dem Markt und den Bedingungen die Schuld geben... und übrigens ist die Veränderung des letzteren genau der Punkt, an dem man gute Inputs setzen kann! - Das Funktionsschema eines jeden Ökosystems, unabhängig von seiner Struktur, ist genau das folgende: Bedingungen -> Reaktionen -> Folgen (und sogar Umweltfolgen)

Die wichtigste Fähigkeit eines Händlers ist es, zu wissen, wann er NICHT in den Markt einsteigen sollte ... imho!

P.S.

Ob ein Händler aktuelle Abhängigkeiten und deren Wechselwirkungen in einem Modell gefunden hat oder nicht - das ist eine globale Frage... und betrifft nicht den NS, sondern vielmehr die Annäherungsfähigkeit des Gehirns des Forschungsautors, der den NS als Werkzeug benutzt, ihm aber nicht die gesamte Verantwortung für die Analyse und die Schlussfolgerungen überträgt

Verstehe, wohin wird der Euro heute gehen?
 
eccocom #:
Lesen Sie die TensorFlow Dokumentation, alles ist in Konstruktorform... praktisch. In Wirklichkeit sind es Black Boxes. Wenn es Sie interessiert, kann ich Ihnen den Code des Perzeptrons geben , den ich manuell geschrieben habe, und nebenbei bemerkt, es sind alles Matrixberechnungen, es ist alles darauf aufgebaut

Übrigens tensorflow.keras (wie Evgeny Dyuka's)

Im Moment bietet Keras keine Funktionalität zur Extraktion der Merkmalsbedeutung

SKLearn scheint interessanter zu sein - Interpretation der Ergebnisse des maschinellen Lernens(vielleicht ist die Bibliothek nicht sehr gut, aber die Logik der Auswertung ist gegeben)

p.s.

Sie haben nicht beigefügt...

Feature Importance Chart in neural network using Keras in Python
Feature Importance Chart in neural network using Keras in Python
  • 2017.07.27
  • andre andre 481 1 1 gold badge 5 5 silver badges 8 8 bronze badges
  • stackoverflow.com
I am using python(3.6) anaconda (64 bit) spyder (3.1.2). I already set a neural network model using keras (2.0.6) for a regression problem(one response, 10 variables). I was wondering how can I generate feature importance chart like so:
 
JeeyCi #:

übrigens tensorflow.keras (wie Evgeny Dyuka es hat) - dann

SKLearn scheint interessanter zu sein - Interpretation der Ergebnisse des maschinellen Lernens (vielleicht ist die Bibliothek nicht sehr gut, aber die Auswertungslogik ist gegeben)

p.s.

Sie haben nicht beigefügt...

Du gerätst in eine Art Dschungel. Die Probleme bei der Vorhersage (oder vielmehr Nichtvorhersage) von NS liegen auf einer viel einfacheren Ebene und haben nichts mit dem NS selbst zu tun

https://neurohive.io/ru/tutorial/prostaja-nejronnaja-set-python/

Es ist ein einfaches Perzeptron))).

Mein Tutorial-Beispiel ist in Jupiter, ich will nicht in Brocken kopieren und ich benutze nicht githab.

Простая нейронная сеть в 9 строк кода на Python
Простая нейронная сеть в 9 строк кода на Python
  • 2019.02.14
  • neurohive.io
Из статьи вы узнаете, как написать свою простую нейросеть на python с нуля, не используя никаких библиотек для нейросетей. Если у вас еще нет своей нейронной сети, вот всего лишь 9 строчек кода: Перед вами перевод поста How to build a simple neural network in 9 lines of Python code , автор — Мило Спенсер-Харпер . Ссылка на оригинал — в подвале...
 
eccocom # :

Du gerätst ein wenig in einen Trott.

Die Logik... dass NS verwendet wird, wenn man das Fehlen einer Formel zur Beschreibung der Abhängigkeit eines Merkmals von einem Faktor umgehen will... Gewichtung verwendet wird... aber vor und nach der NS ist die normale/klassische statistische Verarbeitung in Kraft... wenn ich zum Beispiel nur PDF=F'(X)=dF(x)/dx habe (obwohl wir die CDF nicht brauchen, da alle Schlussfolgerungen aus der Populationsanalyse aus der PDF gezogen werden) und flüchtige Daten habe - muss ich zunächst die Verteilungen auf Gleichförmigkeit bringen, um ihre gemeinsame Analyse zu ermöglichen - und hier hilft die Gewichtung (hier strebe ich keine Mathematik an)... aber die Analyse selbst hat nichts mit NS zu tun, ebenso wenig wie ihre Schlussfolgerungen daraus (ns)... eine solche Schätzung mag zwar grob sein, aber auch die klassische Statik ist unvollkommen (z. B. führt die Verwendung von Logarithmen der Inkremente bereits von sich aus eine Tendenz in die Schlussfolgerungen ein - ein rein mathematischer Fehler)... in der Tat hat jedes Modell seine Annahmen...

Marktteilnehmer warten NICHT auf Vorhersagen, sondern bewerten Risiko und Volatilität und treffen ihre Handels- (und Absicherungs-) Entscheidungen auf dieser Grundlage... es ist gerade, dass es 2 variable Faktoren in dieser Analyse gibt - Volatilität und Zeitfenster - und NS hilft, die Proben in Einheitlichkeit zu bringen (aber GARCH kann auch verwendet werden), damit sie zusammen innerhalb eines einzelnen statistischen Modells analysiert werden können und hilft, den Horizont zu bestimmen... In jenen Momenten, in denen es keine mathematische Formel gibt, die nicht benötigt wird (alles ändert sich in dieser Welt)... sondern durch Gewichtung, Gewichtung und nochmals Gewichtung (zwecks Komprimierung zu einer Regression) - um eine gemeinsame Analyse innerhalb eines statistischen Modells durchzuführen, und zwar möglichst ohne Rauschen oder zumindest mit dessen Minimierung...

Die Bayes'sche Inferenzlogik für Gauß ist es wert, dass man sie im Hinterkopf behält ...

Die Hauptsache ist wohl, eine solche NS-Architektur zu bauen, dass die Dispersion nicht zunimmt, wenn neuronale Schichten auf dem Weg zum Ausgang passieren... imho (warum man sie akkumulieren sollte, wenn sie doch vorhanden ist, ist eine rhetorische Frage)... und dann die klassische Logik der Statistik... und selbst in der tiefsten Geschichte gibt es nicht genügend Stichproben, um robuste Momente qualitativ zu analysieren (alles passiert im Leben)... Ich schätze, in Mihail Marchukajtes Klassifikationsmodell können auch Ausreißer vorkommen... (Wir müssen uns überlegen, wie der Sequenzer mit ihnen umgehen soll.)

Bis jetzt ist meine imho ... Ich werde mir auch den Import von scipy.stats als stats ansehen

p.s.

Danke für den Link

 
JeeyCi #:

zur Logik ... dass NS verwendet wird, wenn es notwendig ist, das Fehlen einer Formel zu umgehen, die die Abhängigkeit eines Merkmals von einem Faktor beschreibt... Gewichtung verwendet wird... aber vor und nach NS die standardmäßige/klassische statistische Verarbeitung... wenn ich zum Beispiel nur PDF=F'(X)=dF(x)/dx habe (obwohl wir die CDF nicht brauchen, da alle Schlussfolgerungen aus der Populationsanalyse aus der PDF gezogen werden) und flüchtige Daten habe - muss ich zunächst die Verteilungen auf Gleichförmigkeit bringen, um ihre gemeinsame Analyse zu ermöglichen - und hier hilft die Gewichtung (hier strebe ich keine Mathematik an)... aber die Analyse selbst hat nichts mit NS zu tun, ebenso wenig wie ihre Schlussfolgerungen daraus (ns)... eine solche Schätzung mag zwar grob sein, aber auch die klassische Statik ist unvollkommen (z. B. führt die Verwendung von Logarithmen der Inkremente bereits eine Tendenz in die Schlussfolgerungen ein - ein rein mathematischer Fehler)... in der Tat hat jedes Modell seine Annahmen...

Marktteilnehmer warten NICHT auf Vorhersagen, sondern schätzen Risiko und Volatilität ein und treffen auf dieser Grundlage ihre Handels- (und Absicherungs-) Entscheidungen... es ist gerade, dass es 2 variable Faktoren in dieser Analyse gibt - Volatilität und Zeitfenster - und NS hilft, die Proben in Einheitlichkeit zu bringen (aber GARCH kann auch verwendet werden), damit sie zusammen innerhalb eines einzelnen statistischen Modells analysiert werden können und hilft, den Horizont zu bestimmen... In jenen Momenten, in denen es keine mathematische Formel gibt, die nicht benötigt wird (alles ändert sich in dieser Welt)... sondern durch Gewichtung, Gewichtung und nochmals Gewichtung - um eine gemeinsame Analyse innerhalb eines statistischen Modells durchzuführen, und zwar vorzugsweise ohne Rauschen oder zumindest mit dessen Minimierung...

Die Hauptsache ist wohl, eine solche NS-Architektur zu bauen, dass die Streuung nicht zunimmt, wenn neuronale Schichten auf dem Weg zum Ausgang passieren... imho (warum sollte man sie akkumulieren, wenn sie ohnehin vorhanden ist - eine rhetorische Frage)... und dann die klassische Logik der Statistik... und selbst in der tiefsten Geschichte gibt es nicht genügend Stichproben, um robuste Momente qualitativ zu analysieren (alles passiert im Leben)

Bis jetzt ist meine imho ... Ich werde noch einmal einen Blick auf import scipy.stats as stats werfen

p.s.

danke für den Link

Wann wird die praktische Anwendung beginnen?
Grund der Beschwerde: