Optimización en un ordenador de doble procesador - página 4

 
Tengo 24 hilos 52 RAM en mi servidor madre. MT5 carga tanto la CPU como la RAM al 100%. Entiendo que es posible tomar más, pero mi amigo en las placas base chinas se calienta y resetea la frecuencia. Y es peligroso sobrecalentar el ordenador.
 
Vyacheslav Vorobev:
Tengo 24 hilos y 52 RAM en la placa base de mi servidor. MT5 tiene el máximo de CPU y RAM al 100%. Según tengo entendido es posible coger más, pero mi amigo lo tiene en placas base chinas y resetea la velocidad de reloj. Y es peligroso sobrecalentar el ordenador.

Bueno, cada vez me inclino más por la idea de que no tiene sentido sacarle ningún tipo de sombrero a Alick, es mejor conseguirlo en DHS o en otro sitio, y montarlo. Al menos tengo un lugar donde quejarme si algo va mal.

AMD Ryzen 9 3900X

 
Sergei Makarevich:

Esta CPU2673 v3 es mejor en términos de rendimiento y pruebas

Exacto, pero el dinero ya estaba invertido en la v3
 
¿funcionan los agentes en OPENCL de las tarjetas de video en MT5?
 
Andrey Khatimlianskii:

Puede ejecutar la optimización usted mismo en varios pasos -https://www.mql5.com/ru/code/26132

Pero en realidad no tiene sentido hacer tantas combinaciones.

Este es el primer pensamiento que me viene a la mente. Pero varias etapas no es lo mismo. Porque a veces, si se cambian ligeramente los parámetros, los resultados cambian significativamente, y los parámetros importantes simplemente se pierden. No hay ninguna dependencia para que puedas encontrar límites en pasos grandes y luego dar pasos más pequeños en ese límite. Por eso, para probar algunas hipótesis, hay que eliminar el límite de pases de los probadores. Si no tiene sentido o no, sólo la experiencia puede juzgarlo. La investigación requiere a veces un enfoque poco convencional.

 
Aliaksandr Hryshyn:
¿Y quién controlará lo que ocurre en el viento? ¿El hardware fresco no ayuda? Qué pena, ¿entonces qué sentido tiene? La seguridad empeorará, hay muchas cosas que el usuario medio desconoce. La seguridad es, en primer lugar, una cuestión de clasificación de usuarios.
Las acciones del usuario dependen de él, puede corregirlas si quiere. Pero la presencia de un backdoor de hardware no depende del usuario porque no puede ser eliminado aunque lo desee. Reiniciar la bios en este caso no ayudará. El baddor se encuentra en el Puente Sur. Además, no aparece nada en lo que un usuario normal no pueda descifrar. Se puede alcanzar un nivel de seguridad muy serio siguiendo un simple conjunto de algunas reglas que requieren un nivel mínimo de conocimiento del hardware y del sistema operativo para entenderlas. Estoy seguro de que cualquiera puede hacerlo.
 
Sergei Makarevich:

Bueno, cada vez me inclino más por la idea de que no tiene sentido sacarle ningún tipo de sombrero a Alick, es mejor conseguirlo en DHS o en otro sitio, y montarlo. Al menos tengo un lugar donde quejarme si algo va mal.

AMD Ryzen 9 3900X

por cierto, investigando sobre ryzen encontré una muy buena oferta en el ryzen 7 2700x... Por el precio del 9 puedes montar un PC completo (sin la tarjeta gráfica externa), sí habrá menos núcleos/hilos, pero el coste por núcleo/hilo es menor.

Por supuesto, si necesitas una trituradora de números para la MT, entonces los procesadores 2x en xeon probablemente seguirán estando por encima de la competencia en cuanto a precio/rendimiento, pero su futura liquidez y su uso para otras tareas, por ejemplo, el procesamiento de vídeo, está bajo gran interrogante en vista del limitado conjunto de comandos del procesador y la baja frecuencia (de las CPUs relativamente modernas)...

PS también se estaba acercando a este tema desde el lado de la optimización de EA, pero mientras se trabaja en un viejo ordenador de oficina de alguna manera el tema ha desaparecido y la necesidad de una gran cantidad de hilos / núcleo ya no es necesario (o es hasta ahora?).

 
pribludilsa:

Ese es el primer pensamiento que me viene a la mente. Pero unos pocos pasos no son lo mismo. Porque a veces, si se cambian ligeramente los parámetros, los resultados cambian significativamente, y los parámetros importantes simplemente se pierden. No hay dependencia para que pueda encontrar límites en pasos grandes y luego dar pasos más pequeños en ese límite. Por eso, para probar algunas hipótesis, hay que eliminar el límite de pases de los probadores. Si no tiene sentido o no, sólo la experiencia puede juzgarlo. A veces, la investigación requiere un planteamiento fuera de lo común.

Divida su tabla completa de más de 100.000.000 pases entre 100 pases de 1.000.000. Terminará con la misma tabla completa de resultados (puede pegarse mediante programación).

 
Andrey Khatimlianskii:

Divida su superposición completa de más de 100.000.000 de pases entre 100 pases de 1.000.000. Terminará con la misma tabla completa de resultados (puede pegarla mediante programación).

¿Cómo dividir? Encontrar primero un parámetro, y luego otro, no funcionará, porque hay una correlación de los parámetros entre sí, y la correlación puede ser en forma de una función compleja, cuya búsqueda es más bien un enfoque falso. Por lo tanto, este tipo de separación de la optimización es un error. Una forma más correcta es la que se describe en mi post, en la que se puede intentar encontrar los límites de los buenos parámetros en pasos enormes, pero como los resultados de los cambios de parámetros insignificantes pueden cambiar a pasos agigantados, este enfoque tampoco es adecuado. Por supuesto, se podría intentar trabajar con la derivación de las funciones de correlación de los parámetros, pero por qué, ya que tal enfoque es complicado, cuando se puede hacer de una manera más directa, simplemente haciendo una optimización lenta con un gran número de pasadas. Esto parece requerir la escritura de un probador propio.

 
Y también debemos añadir, que si retomamos la derivación de las funciones de correlación de los parámetros, volvemos a encontrarnos con el mismo problema, la posibilidad de saltos de la gráfica de la función en un límite muy estrecho. Como hay una correlación de cada uno con cada uno, no podemos encontrar primero una dependencia, luego otra y así sucesivamente, de nuevo obtendremos una tarea enorme que necesita ser dividida en pasos enormes. De este modo, se producirá una acumulación de errores, que puede evitarse simplemente utilizando la optimización con un gran número de pasadas. Por no hablar de que este enfoque en general es extremadamente complicado, me parece. Probablemente no estoy utilizando correctamente la palabra correlación, me refiero a que todos los parámetros actúan conjuntamente sobre el resultado.
Razón de la queja: