Asesor para un artículo. Pruebas para todos los interesados. - página 8

 
Avals:


No hay necesidad de un avance en absoluto en un análisis adecuado de los conjuntos.

La esencia del forward es evaluar si los extremos de los parámetros optimizados flotan en el tiempo. Es decir, cortar los casos en los que hay varios extremos locales en toda la zona de pruebas (optimización + autofsample). Se puede cortar mucho mejor a través de un análisis separado para cada opción de su singularidad extrema y monotonicidad. Es decir, ya es una garantía de que una opción no "flota" en el tiempo. Y el forward tiene una grave desventaja: sólo considera puntos individuales en la superficie de optimización y no en el conjunto. Eso, unido a la división fonónica de las parcelas en optimización y automuestras, reduce la fiabilidad estadística de esos análisis por debajo del zócalo) Es sólo una realización - tal vez uno tendrá la suerte de seleccionar una auto muestra y un conjunto de opciones de mierda será pasado, o viceversa - una auto muestra caerá en un período de reducción temporal de un "buen" conjunto de opciones.

Pero en cualquier caso repito que la tarea de optimización es evaluar la robustez de cada parámetro del sistema. En caso de duda, es mejor descartarla o modificarla. Deje sólo lo que esté respaldado al 100% por las estadísticas y la lógica comercial.


Entonces, ¿quieres decir que en lugar de realizar una serie de pruebas a futuro es mejor optimizar los parámetros sobre un periodo de historia lo más amplio posible? En principio, también hay algo de verdad en esto, ya que es más difícil "ajustar" los parámetros en un área mayor para obtener una curva bonita. :)
 
Avals:


no distorsione nada accidentalmente. Esto lo hace el propio AG mediante el mecanismo de mutación. La optimización es necesaria para comprobar la solidez de cada opción individual, no para encontrar los extremos globales.

Esa es la cuestión, el AG no sólo busca los extremos globales sino un extremo que supere a otros extremos con respecto al valor de la función multivariante, es decir

max(y = f(x0, x1, ... xn))

donde:

x0, x1 ... xn - parámetros de entrada de la ST

y es una función de aptitud del AG

Y no hay garantía de que el extremo del AG encontrado en el punto del espacio multidimensional con corrdinadas {x0, x1, ... xn} no es flotante en el tiempo y el extremo del tiempo sólo para una sección de datos históricos. Si la optimización fuera capaz de comprobar la robustez, el ajuste no existiría en absoluto. Y como el ajuste existe, entonces se necesitan comprobaciones adicionales, incluidas las pruebas de avance.

Avals:

Pero en cualquier caso, de nuevo, la tarea de optimización consiste en evaluar la solidez de cada parámetro dentro del sistema.

Mentiras y sibilancias. La optimización consiste en encontrar los extremos por definición y no resuelve ningún otro problema.
 
tol64:

Entonces, ¿quieres decir que en lugar de realizar una serie de pruebas de avance es mejor optimizar los parámetros en un intervalo de historia lo más grande posible? En principio, esto también tiene algo de cierto, ya que es más difícil "ajustar" los parámetros en un intervalo mayor para obtener una curva bonita. :)

Si las cotizaciones fueran estacionarias, obtendríamos una mayor corrección estadística, ya que la ley de los grandes números tiene lugar sobre datos estacionarios.

Y como se trata de datos no estacionarios, la estadística y la ley de los grandes números no funcionan aquí. Porque la ley de los grandes números de Chebyshev establece que con el aumento del número de ensayos y la presencia de la expectativa = Const y la varianza finita, los datos estadísticos se acercan a sus valores constantes. La no estacionariedad excluye la constancia de las expectativas y la dispersión finita y, por tanto, no podemos refinar nada, ya que lo que no existe ni puede existir por definición no tiene sentido calcularlo ni refinarlo.

Es difícil buscar un gato negro en una habitación oscura, sobre todo si no está allí (cf. Confucio)

 
Reshetov:


Mentiras y sibilancias. La optimización consiste en encontrar los extremos por definición y no resuelve ningún otro problema.
El optimizador todavía puede hacer muchas cosas, si se utiliza correctamente. Sólo los frikis lo restriegan, optimizando un montón de parámetros para usar una sola línea superior ;)
 
IgorM:
Hv. Yuri, ¿y el artículo? ¿Cuándo se publicará?

Acabo de enviar el texto del artículo para que lo comprueben.

Tras la verificación, estará disponible en: https://www.mql5.com/ru/articles/366

 
Reshetov:

Acabo de enviar el texto del artículo para su verificación.

Tras la verificación, estará disponible en: https://www.mql5.com/ru/articles/366

Gracias.

ZS: Ya puedo ver las primeras líneas del artículo: "404 Requested page not found", me deja sin aliento .... )))))

ZZY: Espero que su artículo diga cómo elegir la estructura óptima de la red, y cuando la red se considera suficientemente entrenada, aquí estoy echando a perder el aprendizaje 2x2 ...

>
 
IgorM:

Gracias.

ZS: Ya puedo ver las primeras líneas del artículo: "404 Requested page not found" me deja sin aliento .... )))))

ZZY: Espero que su artículo diga cómo elegir la estructura óptima de la red, y cuando la red se considera suficientemente entrenada, aquí estoy echando a perder el aprendizaje 2x2 ...

Sí, pero no es exactamente una red, ya que la primera capa es un sistema experto para tres entradas, no neuronas, la capa oculta es un perceptrón, es decir, ya una neurona, y la salida es una sigmoide lineal. Se describen detalladamente la necesidad y la suficiencia de la selección de reglas para la base de conocimientos del sistema experto. Es decir, no es necesario optimizar nada. El sistema experto debe cumplir plenamente todas las condiciones descritas en el artículo y ninguna otra arquitectura es adecuada para él: no se puede eliminar nada, ya que no está suficientemente entrenado, y no se puede añadir nada, ya que es seguro que se volverá a entrenar.

Hay instrucciones detalladas sobre cómo optimizar un EA con pruebas de avance y cómo realizar una comprobación adicional de la estabilidad del extremo identificado. No se puede decir que todo eso sea más que suficiente para considerar la TS 100% entrenada en condiciones de no estacionariedad, pero sí se puede decir que todo eso debe hacerse para evitar caer en la inestabilidad o aleatoriedad de una prueba de avance.

 
Reshetov:

Sí, pero no es exactamente una red, ya que la primera capa es un sistema experto para tres entradas en lugar de neuronas, la capa oculta es un perceptrón, es decir, ya una neurona, y la salida es una sigmoide lineal. Se describe detalladamente la necesidad y la suficiencia de la selección de reglas para la base de conocimientos del sistema experto.

Interesante..., estoy pensando en intentar hacer un sistema a partir de una matriz de NSs - la entrada de NSs debe ser alimentada con salidas de NSs ya entrenadas
 

Lapublicación del artículo se ha retrasado temporalmente. El texto ha sido editado, pero las capturas de pantalla, debido a mi falta de atención, han superado el tamaño permitido. Tendré que volver a ejecutar la optimización de nuevo para hacer capturas de pantalla. Y la optimización en MT5 es terriblemente lenta. Por lo tanto, la publicación se ha pospuesto indefinidamente por el momento.

 
Reshetov:


La publicación del artículo se ha retrasado temporalmente. El texto ha sido editado, pero las capturas de pantalla, debido a mi falta de atención, han superado el tamaño permitido. Tendré que volver a realizar todo el proceso de optimización para hacer capturas de pantalla. Y la optimización en MT5 es terriblemente lenta. Por lo tanto, la publicación se ha pospuesto por el momento.


¿Se pueden reducir las capturas de pantalla en Photoshop sin perder calidad?

P.D. Aunque, si hay elementos del terminal, no funcionará muy bien.

Razón de la queja: