Optimierung auf einem Computer mit zwei Prozessoren - Seite 4

 
Ich habe 24 Threads und 52 RAM auf meiner Server-Mutter. MT5 belastet sowohl CPU als auch RAM zu 100 %. Ich verstehe, dass es möglich ist, mehr zu nehmen, aber mein Freund auf chinesischen Motherboards erhitzt sich und setzt die Frequenz zurück. Und es ist gefährlich, den Computer zu überhitzen.
 
Vyacheslav Vorobev:
Ich habe 24 Threads und 52 RAM auf meinem Server-Motherboard. Bei MT5 sind sowohl CPU als auch RAM zu 100 % ausgelastet. Wie ich verstehe, ist es möglich, mehr zu nehmen, aber mein Freund hat es auf chinesischen Motherboards und setzt die Taktrate. Und es ist gefährlich, den Computer zu überhitzen.

Nun, ich neige immer mehr zu der Idee, dass es keinen Sinn macht, irgendeinen Hut von Alick zu nehmen, sondern dass es besser ist, ihn vom DHS oder von irgendwo anders zu bekommen und ihn zusammenzubauen. Wenigstens habe ich eine Stelle, bei der ich mich beschweren kann, wenn etwas schief läuft.

AMD Ryzen 9 3900X

 
Sergei Makarevich:

Diese2673 v3 CPUist besser in Bezug auf Leistung und Tests

Genau, aber das Geld wurde bereits in die v3 investiert.
 
Funktionieren die OPENCL-Agenten von Grafikkarten in MT5?
 
Andrey Khatimlianskii:

Sie können die Optimierung in mehreren Schritten selbst durchführen -https://www.mql5.com/ru/code/26132

Aber es macht wirklich keinen Sinn, so viele Kombinationen durchzugehen.

Das ist der erste Gedanke, der mir in den Sinn kommt. Aber mehrere Stufen sind nicht dasselbe. Denn manchmal ändern sich die Ergebnisse erheblich, wenn man die Parameter geringfügig ändert, und wichtige Parameter werden einfach übersehen. Es gibt keine Abhängigkeit, so dass man Grenzen in großen Schritten finden und dann kleinere Schritte in dieser Grenze geben kann. Aus diesem Grund sollte zur Prüfung einiger Hypothesen die Begrenzung der Testergebnisse aufgehoben werden. Ob es keinen Sinn hat oder nicht, kann nur die Erfahrung beurteilen. Die Forschung erfordert manchmal einen unkonventionellen Ansatz.

 
Aliaksandr Hryshyn:
Und wer wird kontrollieren, was mit dem Wind passiert? Coole Hardware hilft nicht weiter? Das ist schade, denn wozu ist es dann gut? Die Sicherheit wird sich weiter verschlechtern, denn es gibt eine Menge Dinge, von denen der Durchschnittsnutzer nichts weiß. Sicherheit ist in erster Linie eine Frage der Benutzerklassifizierung.
Die Handlungen des Nutzers sind Sache des Nutzers, er kann sie korrigieren, wenn er will. Das Vorhandensein einer Hardware-Backdoor ist jedoch nicht vom Benutzer abhängig, da sie nicht gelöscht werden kann, selbst wenn dies gewünscht wird. Ein erneutes Flashen des Bios wird in diesem Fall nicht helfen. Das Baddor befindet sich an der Südbrücke. Außerdem erscheint nichts, was ein normaler Benutzer nicht herausfinden kann. Ein sehr hohes Maß an Sicherheit kann erreicht werden, indem man einige einfache Regeln befolgt, die ein Mindestmaß an Hardware- und Betriebssystemkenntnissen erfordern, um sie zu verstehen. Ich bin sicher, dass jeder dies tun kann.
 
Sergei Makarevich:

Nun, ich neige immer mehr zu der Idee, dass es keinen Sinn macht, irgendeinen Hut von Alick zu nehmen, sondern dass es besser ist, ihn vom DHS oder von irgendwo anders zu bekommen und ihn zusammenzubauen. Wenigstens habe ich eine Stelle, bei der ich mich beschweren kann, wenn etwas schief läuft.

AMD Ryzen 9 3900X

Übrigens habe ich bei der Recherche nach Ryzen ein ziemlich gutes Angebot für den Ryzen 7 2700x gefunden... Für den Preis des 9er kann man einen kompletten PC bauen (ohne externe Grafikkarte), zwar gibt es weniger Kerne/Threads, aber die Kosten pro Kern/Thread sind geringer.

Natürlich, wenn Sie eine Nummer Brecher für MT, dann 2x Prozessoren auf xeon wird wahrscheinlich immer noch über den Wettbewerb auf Preis / Leistung, aber ihre künftige Liquidität und die Verwendung für andere Aufgaben, zB Video-Verarbeitung, ist unter großen Frage im Hinblick auf die begrenzte Reihe von Prozessor-Befehle und niedrige (relativ modernen CPUs) Frequenz...

PS war auch näher an dieses Thema von der Seite der Optimierung EAs, aber während der Arbeit auf einem alten Bürocomputer irgendwie das Thema verschwunden ist und die Notwendigkeit für eine Menge von Threads / Kern ist nicht mehr (oder ist es noch?) relevant.

 
pribludilsa:

Das ist der erste Gedanke, der mir in den Sinn kommt. Aber ein paar Schritte sind nicht dasselbe. Denn manchmal ändern sich die Ergebnisse erheblich, wenn man die Parameter geringfügig ändert, und wichtige Parameter werden einfach übersehen. Es gibt keine Abhängigkeit, so dass man Grenzen in großen Schritten finden und dann kleinere Schritte in dieser Grenze geben kann. Aus diesem Grund sollte zur Prüfung einiger Hypothesen die Begrenzung der Testergebnisse aufgehoben werden. Ob es keinen Sinn hat oder nicht, kann nur die Erfahrung beurteilen. Die Forschung erfordert manchmal einen unkonventionellen Ansatz.

Teilen Sie Ihre vollständige Tabelle mit über 100.000.000 Durchgängen durch 100 Durchgänge von 1.000.000. Am Ende erhalten Sie dieselbe vollständige Ergebnistabelle (kann programmatisch zusammengeklebt werden).

 
Andrey Khatimlianskii:

Teilen Sie Ihre komplette Überlappung von über 100.000.000 Durchgängen durch 100 Durchgänge von 1.000.000. Am Ende erhalten Sie die gleiche vollständige Ergebnistabelle (Sie können sie programmatisch zusammenfügen).

Erst einen Parameter zu finden, dann einen anderen, wird nicht funktionieren, weil es eine Korrelation zwischen den Parametern gibt, und diese Korrelation kann die Form einer komplexen Funktion haben, deren Suche ein falscher Ansatz ist. Diese Art der Trennung der Optimierung ist also ein Fehler. Ein korrekterer Weg ist in meinem Beitrag beschrieben, bei dem man versuchen kann, die Grenzen guter Parameter in großen Schritten zu finden, aber da sich die Ergebnisse unbedeutender Parameteränderungen sprunghaft ändern können, ist auch dieser Ansatz nicht geeignet. Man könnte natürlich versuchen, Korrelationsfunktionen für die Parameter abzuleiten, aber warum sollte man das tun, wenn man es auf direktere Weise tun kann, indem man einfach eine langsame Optimierung mit einer großen Anzahl von Durchgängen durchführt. Dazu müsste man wohl ein eigenes Prüfprogramm schreiben.

 
Und wir sollten noch hinzufügen, dass wir bei der Ableitung der Korrelationsfunktionen der Parameter wieder auf das gleiche Problem stoßen, nämlich auf die Möglichkeit von Funktionsgraphensprüngen in einer sehr engen Grenze. Da jeder mit jedem korreliert, können wir nicht zuerst eine Abhängigkeit finden, dann eine andere und so weiter, was wiederum zu einer riesigen Aufgabe führt, die in große Schritte aufgeteilt werden muss. Auf diese Weise kommt es zu einer Fehlerhäufung, die durch eine einfache Optimierung mit einer großen Anzahl von Durchgängen vermieden werden kann. Ganz abgesehen davon, dass dieser Ansatz im Allgemeinen sehr kompliziert ist, wie mir scheint. Ich verwende das Wort Korrelation wahrscheinlich nicht richtig, ich meine, dass alle Parameter zusammen auf das Ergebnis wirken.
Grund der Beschwerde: