Discusión sobre el artículo "El papel de la calidad del generador de números aleatorios en la eficiencia de los algoritmos de optimización" - página 15

[Eliminado]  

Ahora que es el perro el que mueve el rabo (empirismo por optimización) y no al revés, podemos considerar cualquier algoritmo de optimización para un proceso condicionalmente estacionario.

En este caso podemos utilizar la terminología de búsqueda de mínimos globales y locales.

Pero no para optimizar incógnitas y ajustarse a mínimos o máximos abstractos.

Pero incluso en este caso, AO tiende al sobreentrenamiento (preajuste), luego se utilizan técnicas de validación para determinar la robustez de ciertos parámetros a partir de la teoría del aprendizaje.

 
С
Yuriy Bykov #:
Por desgracia, cada vez está menos claro de qué estamos hablando.
fxsaber #:

Lenguaje obtuso+formato de foro = malentendido con alta probabilidad.

Quienes deseen participar en una discusión constructiva sobre el problema de la búsqueda de soluciones robustas pueden escribirme en mensajes privados. Organizaremos un chat privado con los participantes por invitación.

Y la participación en conversaciones que no impliquen un diálogo constructivo no está en mi actual lista de tareas.

[Eliminado]  
Si todo esto estuviera escrito en alguna parte, no tendríamos que lavarle el cerebro a la gente con máximos y mesetas y otras chorradas que no tienen sentido fuera del contexto de la estacionariedad del proceso.
[Eliminado]  
Incluso cuando se cumplen las condiciones, la fuerza bruta Monte Carlo funciona tan bien como todo el montón de algoritmos. Es decir, basta con elegir valores aleatorios de los parámetros n veces y validar.