Optimisation sur un ordinateur à double processeur - page 4

 
J'ai 24 threads 52 RAM sur mon serveur mère. MT5 charge le CPU et la RAM à 100%. Je comprends qu'il est possible d'en prendre plus, mais mon ami sur les cartes mères chinoises chauffe et réinitialise la fréquence. Et il est dangereux de faire surchauffer l'ordinateur.
 
Vyacheslav Vorobev:
J'ai 24 threads et 52 RAM sur la carte mère de mon serveur. MT5 maximise le CPU et la RAM à 100 %. Si je comprends bien, il est possible d'en prendre plus, mais mon ami l'a sur des cartes mères chinoises et réinitialise la vitesse d'horloge. Et il est dangereux de faire surchauffer l'ordinateur.

Eh bien, je penche de plus en plus vers l'idée qu'il est inutile de prendre n'importe quel chapeau d'Alick, il est préférable de l'obtenir de DHS ou d'ailleurs, et de l'assembler. Au moins, j'ai un endroit où me plaindre si quelque chose ne va pas.

AMD Ryzen 9 3900X

 
Sergei Makarevich:

Ce CPU2673 v3 est meilleur en termes de performances et de tests.

Exactement, mais l'argent a déjà été investi dans la v3.
 
Les agents OPENCL des cartes vidéo fonctionnent-ils dans MT5 ?
 
Andrey Khatimlianskii:

Vous pouvez exécuter vous-même l'optimisation en plusieurs étapes :https://www.mql5.com/ru/code/26132.

Mais il est vraiment inutile de passer en revue toutes ces combinaisons.

C'est la première pensée qui me vient à l'esprit. Mais plusieurs étapes, ce n'est pas la même chose. Parce que parfois, si vous modifiez légèrement les paramètres, les résultats changent de manière significative, et des paramètres importants seront tout simplement manqués. Il n'y a pas de dépendance qui permette de trouver des limites par grands pas et de donner ensuite des pas plus petits dans cette limite. C'est pourquoi, afin de tester certaines hypothèses, il convient de supprimer la limite des passes du testeur. Qu'il n'y ait pas d'intérêt ou non, seule l'expérience peut en juger. La recherche exige parfois une approche non conventionnelle.

 
Aliaksandr Hryshyn:
Et qui contrôlera ce qui se passe sur le vent ? Un matériel cool ne vous aidera pas ? Dommage, alors à quoi ça sert ? La sécurité va s'aggraver, il y a beaucoup de choses que l'utilisateur moyen ne connaît pas. La sécurité est tout d'abord une question de classification des utilisateurs.
Les actions de l'utilisateur lui appartiennent, il peut les corriger s'il le souhaite. Mais la présence d'une porte dérobée matérielle ne dépend pas de l'utilisateur car elle ne peut pas être supprimée même si on le souhaite. Re-flasher le bios dans ce cas n'aidera pas. Le baddor est situé dans le pont sud. En outre, rien n'apparaît là où un utilisateur normal ne peut le comprendre. Il est possible d'atteindre un niveau de sécurité très élevé en suivant un ensemble simple de quelques règles dont la compréhension nécessite un niveau minimal de connaissances du matériel et du système d'exploitation. Je suis sûr que tout le monde peut le faire.
 
Sergei Makarevich:

Eh bien, je penche de plus en plus vers l'idée qu'il est inutile de prendre n'importe quel chapeau d'Alick, il est préférable de l'obtenir de DHS ou d'ailleurs, et de l'assembler. Au moins, j'ai un endroit où me plaindre si quelque chose ne va pas.

AMD Ryzen 9 3900X

Au fait, en faisant des recherches sur les ryzen, j'ai trouvé une bonne affaire sur le ryzen 7 2700x... Pour le prix du 9, vous pouvez construire un PC complet (sans la carte graphique externe). Certes, il y aura moins de cœurs/threads, mais le coût par cœur/thread est inférieur.

Bien sûr, si vous avez besoin d'un broyeur de chiffres pour la MT, alors les processeurs 2x sur xeon seront probablement toujours au-dessus de la concurrence en termes de prix/performance, mais leur liquidité future et leur utilisation pour d'autres tâches, par exemple le traitement vidéo, est très discutable compte tenu de l'ensemble limité de commandes du processeur et de la faible fréquence (par rapport aux CPU modernes)...

PS se rapprochait également de ce sujet du point de vue de l'optimisation des EA, mais en travaillant sur un vieil ordinateur de bureau, le sujet a disparu et le besoin de beaucoup de threads/core n'est plus (ou est-il toujours ?) pertinent.

 
pribludilsa:

C'est la première pensée qui me vient à l'esprit. Mais quelques pas, ce n'est pas la même chose. Parce que parfois, si vous modifiez légèrement les paramètres, les résultats changent de manière significative, et des paramètres importants seront tout simplement manqués. Il n'y a pas de dépendance qui permette de trouver des limites par grands pas et de donner ensuite des pas plus petits dans cette limite. C'est pourquoi, afin de tester certaines hypothèses, il convient de supprimer la limite des passes du testeur. Qu'il n'y ait pas d'intérêt ou non, seule l'expérience peut en juger. La recherche exige parfois une approche originale.

Divisez votre tableau complet de plus de 100 000 000 de passages par 100 passages de 1 000 000. Vous obtiendrez le même tableau complet de résultats (qui peut être collé ensemble de manière programmatique).

 
Andrey Khatimlianskii:

Divisez votre chevauchement complet de plus de 100 000 000 de passages par 100 passages de 1 000 000. Vous obtiendrez le même tableau complet de résultats (vous pouvez le coller par programme).

Comment diviser ? Trouver d'abord un paramètre, puis un autre, ne fonctionnera pas, car il existe une corrélation des paramètres entre eux, et cette corrélation peut se présenter sous la forme d'une fonction complexe, dont la recherche même est plutôt une fausse approche. Ce type de séparation de l'optimisation est donc une erreur. Une méthode plus correcte est décrite dans mon post, où vous pouvez essayer de trouver les limites des bons paramètres par grandes étapes, mais comme les résultats des changements de paramètres insignifiants peuvent changer brusquement, cette approche n'est pas non plus appropriée. On pourrait bien sûr essayer de travailler en dérivant les fonctions de corrélation des paramètres, mais pourquoi, puisqu'une telle approche est compliquée, alors qu'on peut le faire de manière plus directe, simplement en faisant une optimisation lente avec un grand nombre de passages. Cela semble exiger d'écrire son propre testeur.

 
Et ajoutons que si nous reprenons la dérivation des fonctions de corrélation des paramètres, nous rencontrons à nouveau le même problème, la possibilité de sauts de graphe de fonction dans une limite très étroite. Puisqu'il y a une corrélation de chacun avec chacun, nous ne pouvons pas d'abord trouver une dépendance, puis une autre et ainsi de suite, nous obtiendrons à nouveau une tâche énorme qui doit être décomposée en étapes énormes. De cette façon, il y aura une accumulation d'erreurs, qui peut être évitée en utilisant simplement l'optimisation avec un grand nombre de passes. Sans compter que cette approche en général est extrêmement compliquée, il me semble. Je n'utilise probablement pas le mot corrélation correctement, je veux dire que tous les paramètres agissent ensemble sur le résultat.
Raison: