Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich habe 24 Threads und 52 RAM auf meinem Server-Motherboard. Bei MT5 sind sowohl CPU als auch RAM zu 100 % ausgelastet. Wie ich verstehe, ist es möglich, mehr zu nehmen, aber mein Freund hat es auf chinesischen Motherboards und setzt die Taktrate. Und es ist gefährlich, den Computer zu überhitzen.
Nun, ich neige immer mehr zu der Idee, dass es keinen Sinn macht, irgendeinen Hut von Alick zu nehmen, sondern dass es besser ist, ihn vom DHS oder von irgendwo anders zu bekommen und ihn zusammenzubauen. Wenigstens habe ich eine Stelle, bei der ich mich beschweren kann, wenn etwas schief läuft.
AMD Ryzen 9 3900X
Diese2673 v3 CPUist besser in Bezug auf Leistung und Tests
Sie können die Optimierung in mehreren Schritten selbst durchführen -https://www.mql5.com/ru/code/26132
Aber es macht wirklich keinen Sinn, so viele Kombinationen durchzugehen.
Das ist der erste Gedanke, der mir in den Sinn kommt. Aber mehrere Stufen sind nicht dasselbe. Denn manchmal ändern sich die Ergebnisse erheblich, wenn man die Parameter geringfügig ändert, und wichtige Parameter werden einfach übersehen. Es gibt keine Abhängigkeit, so dass man Grenzen in großen Schritten finden und dann kleinere Schritte in dieser Grenze geben kann. Aus diesem Grund sollte zur Prüfung einiger Hypothesen die Begrenzung der Testergebnisse aufgehoben werden. Ob es keinen Sinn hat oder nicht, kann nur die Erfahrung beurteilen. Die Forschung erfordert manchmal einen unkonventionellen Ansatz.
Und wer wird kontrollieren, was mit dem Wind passiert? Coole Hardware hilft nicht weiter? Das ist schade, denn wozu ist es dann gut? Die Sicherheit wird sich weiter verschlechtern, denn es gibt eine Menge Dinge, von denen der Durchschnittsnutzer nichts weiß. Sicherheit ist in erster Linie eine Frage der Benutzerklassifizierung.
Nun, ich neige immer mehr zu der Idee, dass es keinen Sinn macht, irgendeinen Hut von Alick zu nehmen, sondern dass es besser ist, ihn vom DHS oder von irgendwo anders zu bekommen und ihn zusammenzubauen. Wenigstens habe ich eine Stelle, bei der ich mich beschweren kann, wenn etwas schief läuft.
AMD Ryzen 9 3900X
Übrigens habe ich bei der Recherche nach Ryzen ein ziemlich gutes Angebot für den Ryzen 7 2700x gefunden... Für den Preis des 9er kann man einen kompletten PC bauen (ohne externe Grafikkarte), zwar gibt es weniger Kerne/Threads, aber die Kosten pro Kern/Thread sind geringer.
Natürlich, wenn Sie eine Nummer Brecher für MT, dann 2x Prozessoren auf xeon wird wahrscheinlich immer noch über den Wettbewerb auf Preis / Leistung, aber ihre künftige Liquidität und die Verwendung für andere Aufgaben, zB Video-Verarbeitung, ist unter großen Frage im Hinblick auf die begrenzte Reihe von Prozessor-Befehle und niedrige (relativ modernen CPUs) Frequenz...
PS war auch näher an dieses Thema von der Seite der Optimierung EAs, aber während der Arbeit auf einem alten Bürocomputer irgendwie das Thema verschwunden ist und die Notwendigkeit für eine Menge von Threads / Kern ist nicht mehr (oder ist es noch?) relevant.
Das ist der erste Gedanke, der mir in den Sinn kommt. Aber ein paar Schritte sind nicht dasselbe. Denn manchmal ändern sich die Ergebnisse erheblich, wenn man die Parameter geringfügig ändert, und wichtige Parameter werden einfach übersehen. Es gibt keine Abhängigkeit, so dass man Grenzen in großen Schritten finden und dann kleinere Schritte in dieser Grenze geben kann. Aus diesem Grund sollte zur Prüfung einiger Hypothesen die Begrenzung der Testergebnisse aufgehoben werden. Ob es keinen Sinn hat oder nicht, kann nur die Erfahrung beurteilen. Die Forschung erfordert manchmal einen unkonventionellen Ansatz.
Teilen Sie Ihre vollständige Tabelle mit über 100.000.000 Durchgängen durch 100 Durchgänge von 1.000.000. Am Ende erhalten Sie dieselbe vollständige Ergebnistabelle (kann programmatisch zusammengeklebt werden).
Teilen Sie Ihre komplette Überlappung von über 100.000.000 Durchgängen durch 100 Durchgänge von 1.000.000. Am Ende erhalten Sie die gleiche vollständige Ergebnistabelle (Sie können sie programmatisch zusammenfügen).
Erst einen Parameter zu finden, dann einen anderen, wird nicht funktionieren, weil es eine Korrelation zwischen den Parametern gibt, und diese Korrelation kann die Form einer komplexen Funktion haben, deren Suche ein falscher Ansatz ist. Diese Art der Trennung der Optimierung ist also ein Fehler. Ein korrekterer Weg ist in meinem Beitrag beschrieben, bei dem man versuchen kann, die Grenzen guter Parameter in großen Schritten zu finden, aber da sich die Ergebnisse unbedeutender Parameteränderungen sprunghaft ändern können, ist auch dieser Ansatz nicht geeignet. Man könnte natürlich versuchen, Korrelationsfunktionen für die Parameter abzuleiten, aber warum sollte man das tun, wenn man es auf direktere Weise tun kann, indem man einfach eine langsame Optimierung mit einer großen Anzahl von Durchgängen durchführt. Dazu müsste man wohl ein eigenes Prüfprogramm schreiben.