AMD ou Intel ainsi que la marque de la mémoire - page 13

 
joo >> :

Vous avez raison, mmm, même si je suis un partisan du camp AMD. Les deux premiers tests du script montrent bien la puissance de calcul d'un seul cœur dans les applications compilées par MT. Ces deux tests sont de très petite taille, afin de ne pas "toucher" la RAM pour une plus grande pureté de l'expérience. Le troisième test est conçu comme un test de mémoire d'écriture et ne comporte aucun calcul particulier.

Afin d'utiliser tous les cœurs du processeur, la logique de test doit permettre la mise en parallèle des calculs. Le compilateur et la plate-forme MT elle-même doivent également le permettre. Pour autant que je sache, je dois me tromper, le langage MQL5, comme MQL4, ne fournit pas de fonctionnalités pour construire du parallélisme dans le code. Je suis désolé pour ça.

Plus tard, je posterai le script mis à jour fonctionnant plus "en douceur" avec la sortie de l'indice de performance final relatif à mon processeur (AMD Atlon X2 3800).

Pour Kombat -> le traitement des objets graphiques n'a pas vraiment besoin d'une puissance de fer, car même le traitement de dizaines de milliers d'objets par seconde n'affectera pas les performances, et dans le testeur, ce n'est pas vraiment nécessaire. IMHO.



La vitesse n'est critique que lors de l'optimisation. C'est sur cette base que les tests doivent être effectués. Bon, j'ai déjà tout dit : Expert Advisor standard, citations dans l'archive avec lui, fichier *.set avec un ensemble de paramètres à optimiser. Tout.

 

Oui. Je ne suis pas un partisan du camp de qui que ce soit. J'aime toujours le Zilog Z80 ! ))) A cause de mon enfance : j'ai conçu moi-même sa carte, je l'ai assemblée et soudée...

Au fait, le nouvel AMD est très attrayant. Le cache est bien. La fréquence est également normale. Le travail avec la mémoire a toujours été très bon pour AMD. Intel a récemment mis un contrôleur sur le processeur alors qu'AMD a été le premier.

Mais je ne me souviens pas, le cache peut-il être redistribué lors d'une charge partielle, lorsque le cœur chargé est plus alloué.

 
Svinozavr >> :

La vitesse n'est critique que lors de l'optimisation. C'est sur cette base que les tests doivent être effectués. Bon, j'ai déjà tout dit : Expert Advisor standard, citations dans l'archive avec lui, fichier *.set avec un ensemble de paramètres à optimiser. Tout.

Peut-être ferez-vous un test ? Et si quelqu'un est intéressé, j'aimerais le diriger. ;)

 
Svinozavr >> :

Vous pouvez le vérifier en "coupant" le script en une seule section - il peut tenir dans vos 256KB.

Incroyable !

J'ai suivi votre conseil. J'ai essayé sur le même ordinateur toutes sortes d'opérations séparément. C'est ce que j'ai obtenu :

Total : un peu plus de 37 millisecondes !

Alors, quelle conclusion devons-nous en tirer ? Que la taille du code affecte les performances ? Mais pourquoi autant ? Il suffit de supprimer quelques lignes de code pour obtenir cet effet.

 


 
begemot61 >> :


Mec, je ne comprends pas du tout. La taille du cache L2 est de 2 Mo, la fréquence du processeur est de 3,8 GHz. Pourquoi est-il à la traîne derrière le Celeron de Svinozavr ?

La seule chose qui est nulle est la RAM, à 266 MHz. Contre ses 400.

begemot61, pourriez-vous le tester individuellement comme je l'ai fait ci-dessus. Il sera très intéressant de voir les résultats du processeur à 3,8 GHz.

 
begemot61 >> :


Mmmm... Eh bien, la mémoire est lente, ok. Mais premièrement, pas si lent, et deuxièmement, il n'est pas censé avoir un rapport avec ça. (>> Et puis quoi ?

Pouvez-vous, comme benik, l'exécuter section par section ? Eh bien, l'image ressemble beaucoup à un quart de mb de cache...

 
Mathemat >> :

Oh, mon garçon. Je suis surpris à l'extrême. Je n'avais pas réalisé que le vieux Celeron était si rapide...


Je suppose que c'est le but, ce n'est pas si vieux. C'est la technologie 45nm. Je suis l'ancien de la technologie 90 nm. Et celui de begemot61 est de 90nm. Cela pourrait-il être la raison du décalage ?
 
Il y a autre chose : le multitrading (deux cœurs virtuels) peut interférer. Si le bios le permet ou s'il existe un logiciel spécial, vous pouvez le désactiver.
 
benik >> :


Je pense que c'est le but : ce n'est pas si vieux. C'est la technologie 45nm. Je suis l'ancien de la technologie 90nm. Et celui de begemot61 est de 90nm. C'est peut-être ça qui cause le décalage.

Les trois modèles sont différents. C'est peut-être dû à la logique du prédicteur de transition - il s'améliore constamment, et le 4e pentium en question est le plus ancien. Et ce prédicteur affecte directement l'efficacité du cache. Mais ce n'est pas encore très clair.

Autre chose : l'ensemble du cache est divisé en un cache d'instructions et un cache de données. Peut-être, encore une fois, que cette division est "tordue" en 4 ?

En bref, bien que cela ne soit pas clair jusqu'au bout, mais cela ressemble beaucoup aux problèmes d'utilisabilité des caches. Cependant, il existe également un paramètre tel que la quantité d'opérations par horloge. Mais il devrait en être de même ici. Non. Je ne pense pas.

Une énigme, cependant ! !!))

Raison: