Neuronales Netz und Eingaben - Seite 40

 
nikelodeon:

Ich überlege also... wie man das Ergebnis interpretieren kann... um es schneller zu machen und sicherlich nicht per Hand........

Wahlmöglichkeiten: c, c++, java, javascript, mql4, mql5
 
Reshetov:
Zur Auswahl: c, c++, Java, JavaScript, mql4, mql5

Juri bitte.

Können Sie mir sagen, wie ich MT4.5 mit JAVA verknüpfen kann? Ich möchte es wirklich versuchen, um wenigstens etwas zu lesen.

 
Ich habe eine Interpolation in Matlab durchgeführt. Natürlich ist es umständlich, aber es hat lange Formeln, im Gegensatz zu Excel :-)
 
ivandurak:

Juri bitte.

Ich möchte Ihr mt4.5 in JavA verwenden und habe keine Ahnung, wie man es benutzt.

Es gibt viele Methoden, aber sie sind alle umständlich. Java wurde nicht für Low-Level-Anwendungen entwickelt, um plattformunabhängig zu sein. Und MT fehlt es an hochrangigen Kommunikationskanälen, die nicht an Plaform - Windows gebunden sind.

Deshalb binde ich sie nicht und schreibe Codegeneratoren in Java, deren Ergebnisse ich leicht in MQL, C oder Java einfügen kann.

 
Ich habe noch keine klare Vorstellung von der positiven Seite dieser Sache. Aber während der Optimierung wird die Gesamtzahl der Fehler nicht immer korrekt gezählt. Und aus irgendeinem Grund wird am Ende des Optimierungsprozesses die Meldung Bad Data angezeigt! Was könnte das sein?
 
nikelodeon:
Ich kann die Positivität dieser Sache noch nicht wirklich verstehen. Aber während der Optimierung wird die Gesamtzahl der Fehler nicht immer korrekt gezählt. Und in diesem Fall wird aus irgendeinem Grund am Ende der Optimierung die Meldung Bad Data!!! angezeigt. Was könnte das sein?

Schlechte Daten bedeuten, dass das Modell in seinen "Vorhersagen" häufiger falsch liegt, als wenn wir das Modell nicht verwendet hätten. Das heißt, das Modell ist für die Anwendung nicht geeignet. Der Grund: Müll in den Eingängen. Das heißt, die Eingaben sind unbedeutend.


Nehmen wir die Ergebnisse der Tests an einer Kontrollstichprobe und erstellen wir eine Kontingenztabelle:


Modellvorhersage \ Reales Ergebnis (Wert der abhängigen Variable)
Positives Ergebnis
Negatives Ergebnis
Positives Ergebnis
Wahr positiv (TP)
Falsches Positiv (FP)
Negatives Ergebnis
Falsches Negativ (FN)
Wahres Negativ (TN)


In diesem Fall ist die Häufigkeit der positiven Ergebnisse in der Stichprobe, d. h. wenn wir eine beliebige Stichprobe aus der Stichprobe ziehen, gleich (TP + FN) / (TP + FN + FP + FN)

Bei der Verwendung von Modellvorhersagen ist die Häufigkeit der vom Modell richtig vorhergesagten positiven Ergebnisse gleich: TP / (TP + FP)

Damit das Modell bei der Vorhersage positiver Ergebnisse für die Stichproben weniger häufig fehlschlägt, als wenn wir beliebige Stichproben aus der Stichprobe nehmen und deren Ergebnisse standardmäßig als positiv behandeln, ist es notwendig und ausreichend, dass die Bedingung

TP / (TP + FP) > (TP + FN) / (TP + FN + FP + FN)

Wenn diese Bedingung nicht erfüllt ist, ist das Modell nicht geeignet, um in der Praxis positive Ergebnisse vorherzusagen, denn wenn wir ein beliebiges Beispiel aus der Stichprobe nehmen und dessen Ergebnis standardmäßig als positiv behandeln, liegen wir nicht seltener falsch als wenn wir die vom Modell vorhergesagten positiven Ergebnisse behandeln.

 
Verstehe, und ich verstehe, dass Sie einen Eingabedatensatz suchen müssen, der die Fehlerquote erheblich reduziert und die Verallgemeinerungsfähigkeit erhöht..... Und das bei genügend Datensätzen ....
 
nikelodeon:
Ich sehe und verstehe, dass es notwendig ist, nach einem solchen Satz von Eingabedaten zu suchen, der die Fehler deutlich reduziert und die Generalisierungsfähigkeit erhöht..... Und das bei genügend Datensätzen ....

Das ist richtig. D.h. es können bis zu 1023 Prädiktoren (Eingabedaten) auf einmal eingefügt werden. Wenn danach keine BadData-Meldung erscheint, schließen Sie die Prädiktoren aus der Stichprobe aus (löschen Sie die Spalten aus dem Arbeitsblatt), die in der Modellbeschreibung als zu wenig reduziert gekennzeichnet sind.

Eine Stichprobe der verbleibenden Prädiktoren kann bereits wieder ausgeführt werden und wird Kerneltransformationen unterzogen. Und Kernel-Transformationen wiederum sorgen für eine bessere Verallgemeinerbarkeit.

Kernel-Transformationen werden automatisch aktiviert, wenn die Anzahl der Inputs (d.h. Spalten mit erklärenden Variablen) 44 nicht überschreitet. Wenn die Anzahl der Eingaben 10 nicht übersteigt, wird MSUA einbezogen, was die maximale Verallgemeinerbarkeit ergibt.

 
Großartig, aber wenn Sie die Spalte auf mehr als 7 erhöhen, steigt die Optimierungszeit erheblich..... Ich weiß nicht einmal, wie ich die Leistung erhöhen kann.... Ich möchte nicht einmal über 10 Spalten sprechen. Unrealistisch lang.... Gibt es eine Möglichkeit, das Problem zu beheben?
 
Ich habe eine Datenprobe mit 11 Spalten + 1 Ausgabespalte vorbereitet. Frage: Welche Anzahl von Spalten sollte beim Ausführen des Predictor angegeben werden? Nur die Menge der Daten (11) oder zusammen mit der Ausgabe (12) ????
Grund der Beschwerde: