Discusión sobre el artículo "El papel de la calidad del generador de números aleatorios en la eficiencia de los algoritmos de optimización" - página 11

 
Maxim Dmitrievsky #:
Aquí respondes a tu propia pregunta, cuántos reinicios mínimos deberían ser aproximadamente para comparar diferentes DSTs. Esto es exactamente sobre lo que escribí y luego te lo cepillaste.

Estás demostrando ignorancia del tema, aclara primero la diferencia entre carreras y reinicios. Mi post trata de una regla general para elegir el número de ejecuciones FF de los algoritmos de optimización, es decir, cuántas ejecuciones de una función de aptitud deben realizarse para garantizar una convergencia aceptable de los algoritmos de optimización. En mis pruebas utilizo 10000 mil ejecuciones de la función de aptitud, lo que corresponde a 10^4. En este artículo consideramos la influencia de la calidad del SGC en los resultados de la optimización en estas 10000 ejecuciones de la función de aptitud como parte de los algoritmos de optimización, no se reveló la influencia de la calidad del SGC, como se indica en las conclusiones del artículo.

Y para la comparación de DSTs entre sí, una prueba sobre la uniformidad de la distribución de números aleatorios, con un número mucho mayor de ejecuciones de DSTs que 10^4.

2024.03.18 20:54:33.459 Estándar, 100000000 lanzamientos, 10000 casillas

¡Es decir, 100000000 = 10^8!

Por favor, no publiques más en los comentarios de mis artículos.

[Eliminado]  
Andrey Dik #:

Estás demostrando ignorancia del tema, entiende primero la diferencia entre ejecuciones y reinicios. Mi post trata de una regla empírica para elegir el número de ejecuciones FF de los algoritmos de optimización, es decir, cuántas ejecuciones de una función de aptitud se necesitan para garantizar una convergencia aceptable de los algoritmos de optimización. En mis pruebas utilizo 10000 mil ejecuciones de la función de aptitud, lo que corresponde a 10^4. En este artículo hemos considerado la influencia de la calidad del HSC en los resultados de la optimización en estas 10000 ejecuciones de la función de aptitud como parte de los algoritmos de optimización, no se ha revelado la influencia de la calidad del HSC, como se indica en las conclusiones del artículo.

Y para comparar las DST entre sí, la prueba de uniformidad de la distribución de números aleatorios se realizó con un número mucho mayor de ejecuciones de DST que 10^4.

2024.03.18 20:54:33.459 Estándar, 100000000 lanzamientos, 10000 casillas

¡Es decir, 100000000 = 10^8!

Por favor, no pongas más en los comentarios de mis artículos.

Para comparar la misma optimización alg. con diferentes DSTs, es necesario hacer sobre el mismo número de sus reinicios, no 5. Cuantos más, mejor. Entonces estará claro qué DST es mejor/peor/cómo afecta de media.
 
Maxim Dmitrievsky #:
Para comparar el mismo algoritmo de optimización con diferentes DST, es necesario realizar aproximadamente el mismo número de reinicios, no 5. Cuantos más sean, mejor. Cuantos más, mejor. Entonces estará claro qué DST es mejor/peor/cómo afecta de media.

5 es el número de pruebas. Los algoritmos de optimización dan una dispersión de resultados mayor que la diferencia aparente de utilizar diferentes DST.

Primero afirmabas, en mensajes borrados anteriormente, que no debería haber un efecto de la DST, ¿y ahora afirmas que hay un efecto, pero que no se revela en las pruebas? Estás confundiendo tus afirmaciones.

Una vez más te repito, realiza tus propias pruebas y refuta mis conclusiones o confírmalas. He proporcionado todas las herramientas para las pruebas. Las declaraciones verbales no interesan a nadie aquí, mis artículos son para la aplicación práctica, no para la teoría en el vacío.

Por favor, no escriba más en los comentarios a mis artículos.

[Eliminado]  
Andrey Dik #:

5 es el número de pruebas. Los algoritmos de optimización dan una variación en los resultados superior a la diferencia visible de la aplicación de diferentes DST.

Primero afirmabas, en mensajes borrados anteriormente, que no debería haber ninguna influencia de la DGS, ¿y ahora afirmas que hay una influencia, pero que no se revela en las pruebas? Está usted confundiendo sus afirmaciones.

Una vez más le repito, realice sus propias pruebas y refute mis conclusiones o confírmelas. He proporcionado todas las herramientas para las pruebas.

Por favor, no escriba más en los comentarios a mis artículos.

No hay diferencia para el usuario porque la variación en cada corrida anula la variación en la aplicación de un DST en particular. Nadie va a correr 10^n veces en sus tareas. Si todavía comparar el impacto de la gcp - que necesita para hacer un millón de carreras, no 5.
 
fxsaber #:

Incluso esa opción frontal me valdría. Pero no entiendo cómo definir el área de pinchado en un espacio multidimensional?

¿Alguna idea, cómo determinar el área del pico global encontrado por los valores calculados (que sean 10 000 piezas) de FF? Para forzar -DBL_MAX en esta área en la siguiente iteración de FF.

La clase de algoritmo Maximización de Expectativas (en general) y Modelo de Mezcla Gaussiana (en particular) es ideal para esto. Seleccionará todas las colinas como clusters separados, después de lo cual puede poner a cero cualquiera de ellos.

Desafortunadamente, esto no está disponible en MQL5, incluso en ALGLIB. Por ahora, usted puede tirar de ella desde python. Si usted tiene un deseo, los materiales en este sitio también funcionará.

 
Stanislav Korotky #:

La clase de algoritmos de maximización de expectativas (en general) y de modelos de mezclas gaussianas (en particular) es ideal para ello. Seleccionará todas las colinas como conglomerados separados, tras lo cual cualquiera de ellos puede ponerse a cero.

Desafortunadamente, esto no está disponible en MQL5, incluso en ALGLIB. Por ahora, usted puede tirar de ella desde python. Si usted tiene un deseo, los materiales en este sitio también funcionará.

Muy interesante, lo he tenido en cuenta.
 
La cuestión es qué hacer a continuación con el conjunto de estos conjuntos con "cimas". Antes teníamos un máximo global como solución del algoritmo de optimización, digamos que ahora tenemos 50 de ellos. Pero no se acercan a la solución del problema de estabilidad.
 
Stanislav Korotky #:
La cuestión es qué hacer a continuación con el conjunto de estos conjuntos con "cimas". Antes teníamos un máximo global como solución del algoritmo de optimización, digamos que ahora tenemos 50 de ellos. Pero no se acercan a la solución del problema de estabilidad.

Bueno, no sabemos por qué Saber está buscando máximos (tal vez nos lo diga), en el planteamiento de su problema tal vez esta sea la forma de encontrar soluciones robustas.

En el diagrama que di antes, ¿qué elemento del diagrama crees que afecta a encontrar una solución robusta (Resultado robusto)?


 
Andrey Dik #:

En el diagrama que he dado antes, ¿qué elemento del diagrama crees que afecta a la búsqueda de una solución robusta (Resultado robusto)?

En mi opinión, no hay ninguno.

 
Stanislav Korotky #:

Tal y como yo lo veo, aquí no hay ninguno.

¿No hay ningún elemento en el circuito que sea responsable y/o afecte a la robustez? ¿Cuál es este elemento?