Mechanisierung der optimalen Parameterauswahl. Einen gemeinsamen Nenner finden.

 
Ich bin davon überzeugt, dass jeder MTS-Erbauer (oder die große Mehrheit der Erbauer) schon einmal über die Frage nachgedacht hat: Was sind die Ergebnisse des Optimizer Optimal? Dieses Thema wurde natürlich schon oft im Forum angesprochen... und einfache Regeln wie: höhere Rentabilität, geringerer Drawdown, glatte Bilanzkurve... sind wie das Einmaleins auswendig gelernt worden. Es gab jedoch keine klare Formalisierung der Auswahlkriterien und vor allem keine Analyse ihres relativen Gewichts... D.h. natürlich, Tabellen und deren Weiterverarbeitung mit MS Office ist verständlich, zugänglich, aber leider nicht effektiv, jedenfalls nicht im Hinblick auf "Ergebnis"/"Zeitaufwand". Angenommen, Sie haben hundert oder zwei "Ergebnissätze", dann lohnt es sich wahrscheinlich nicht, sich diese Mühe zu machen, aber wenn Sie hundert oder zweitausend Sätze haben... Spüren Sie den Unterschied? Und wenn man dann noch die Macken des Testers berücksichtigt... Daher schlage ich vor, das Thema "Optimierungsoptimierung" zu erörtern und einen gemeinsamen (möglichst weitgehenden) Koeffizienten zu erarbeiten, um die Güte eines Satzes von Optimierungsparametern für ein beliebiges MTS zu schätzen.
 

Wenn dieser Thread eine würdige Fortsetzung erfährt und Antworten auf die hier aufgeworfenen Fragen findet, würde ich mich sehr freuen.

..........

Moderatoren: Meine Herren, ich bitte Sie, diesen Thread unter besondere Kontrolle zu stellen und sofort alle Versuche zu unterbinden, ihn zu überfluten.

An die Mitglieder der Gemeinschaft: Liebe Kolleginnen und Kollegen, ich bitte Sie, zur Sache zu sprechen. Für die Kommunikation und Klärung der Beziehungen auf dem Forum ist in privaten.

 
Wenn wir uns vorstellen, dass "Qualität des Sets"=(Gewinn/(Zeit*Depo))*K - dann wird genau dieses "K" (KPI, wenn Sie wollen) dazu beitragen, die Analyse von Optimierungsergebnissen erheblich zu vereinfachen (und einfach zu mechanisieren) und wird es in Zukunft wahrscheinlich erlauben, verschiedene MTS objektiv zu vergleichen...
 
lasso:

zu den hier aufgeworfenen Fragen, würde ich mich sehr freuen.

Seitdem kenne ich mich in diesen Dingen sehr gut aus). Ich bin durch nichts getröstet, jede Klasse von TS hat ihre eigenen Kriterien durch Versuch und Irrtum, unter Berücksichtigung der Merkmale von TS. Ich kann keine universellen verwenden, sie funktionieren hier und dort nicht... Ich glaube, es gibt einen großen Unterschied zwischen Pipsator und Reverse-System. Und man kann sie nicht mit einem Maßstab messen.
 
Wenn Sie keine klare Grenze zwischen Optimierung und Bastelei ziehen, können Sie die Ziele der Branche gleich wieder vergessen.
 
Mischek:
Wenn Sie keine klare Grenze zwischen Optimierung und Bastelei ziehen, können Sie die Ziele der Branche gleich wieder vergessen.
Gibt es eine solche Grenze?)
 
OnGoing:
Gibt es eine Grenze?)


1 Das macht nichts, es ist nur so, dass, wenn Sie die Grenze nicht markieren, der Zweig tatsächlich "Mechanisierung der Auswahl optimaler Anpassungsparameter" heißen wird.

2 Natürlich gibt es das. Man kann lange, sehr lange über die Formulierung fluchen, aber wenn man diesen Teil des Weges nicht überwindet, wird der Zweig tatsächlich "Mechanisierung der optimalen Auswahl von Anpassungsparametern" heißen.

 
Mischek:
Wenn Sie keine klare Grenze zwischen Optimierung und Bastelei ziehen, können Sie die Ziele der Branche gleich wieder vergessen.

Gehen wir davon aus, dass wir nichts zu unterscheiden brauchen... nehmen Sie einfach an... :))), dass wir die Länge einer Boa Constrictor messen müssen... nicht bei Papageien oder Affen, sondern bei einem "gewöhnlichen" Maßstab...
 
imho ein großartiges Durcheinander von Gedanken des Autors.
Das Wichtigste zuerst:
1. Das Kriterium ist eine notwendige und hinreichende Bedingung; es ist immer eine.
2. Das Kriterium wird vollständig durch das Optimierungsziel bestimmt.
3. Ziel ist es, entweder die Qualität des Satzes oder die Angemessenheit der eingestellten Optimierungsparameter zu bewerten oder verschiedene MTS zu vergleichen...
4. Wie geht es weiter?
 
Le0n:

Gehen wir davon aus, dass wir nichts abgrenzen müssen... nehmen Sie einfach an... :))), dass wir die Länge der Boa Constrictor messen müssen... nicht bei Papageien oder Affen, sondern bei einem "gewöhnlichen" Maßstab...

Ich bin mit der Annahme einverstanden. Aber um Rückschritte zu vermeiden, muss ich die Bedingungen für die Annahme kennen. Zum Beispiel gibt es in der Natur keine Anpassung. Alles ist Optimierung. GUT.

Jetzt müssen wir verstehen, was sich hinter der "Güte des Optimierungsparametersatzes" verbirgt.

 
Mischek:
Wenn man nicht klar zwischen Optimierung und Anpassung unterscheidet, kann man die Ziele der Branche gleich wieder vergessen.

Kopiert aus dem Thema Wo ist die Grenze zwischen Anpassung und tatsächlichen Mustern?

Ich denke, das ist die Grenze.

=========================================================

Das in diesem Thread gesuchte Kriterium (oder die Grenze) sollte nicht von der Art des TS abhängen.

Ich habe diesen TS nur als leicht verständliches Beispiel für alle angeführt.

.......................

Gut. Betrachten wir das Problem einmal aus der entgegengesetzten Richtung:

Sie müssen jeden verfügbaren TS durch irgendeine Optimierung im Tester (auch schwerste Überoptimierung) schließlich zu den folgenden Ergebnissen bringen:

1) Anzahl der Transaktionen in einem Jahr, mindestens 250-300.

2) Die mathematische Erwartung von mindestens zwei Streuungen.

3) Der Rückgewinnungsfaktor ist gleich vier (Minimum).

.............

Wer kann einen Prüfbericht mit diesen Ergebnissen vorlegen?

Sofort sehe ich einen Wald von Händen...

Ach ja, das hatte ich ganz vergessen:

4) Prüfbereich alle verfügbaren Daten von 1999 bis 12.2010 (12 Jahre)

=====================

Wenn jemand so etwas vorweisen kann,

wäre das sehr zu begrüßen.

PS Und wahrscheinlich überrascht. ))