Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3215

 
fxsaber #:

Veo una pérdida de tiempo mutua. Estoy seguro de que si habláramos en persona uno frente al otro, la probabilidad de entendimiento mutuo sería cercana a uno.

La propuesta de una conferencia en los EAU sigue en pie )

 
fxsaber #:

Veo una pérdida de tiempo mutua. Estoy seguro de que si habláramos en persona uno frente al otro, la probabilidad de entendimiento mutuo sería cercana a uno.

Estoy de acuerdo

 
Maxim Dmitrievsky #:

lo escribe mal. OOS - prueba, validación - segunda submuestra (junto con traine) para la evaluación del modelo (validación).

La de validación puede ser igual a la de prueba o estar separada.

Esta separación surgió porque las OI suelen utilizar la segunda submuestra para detener el entrenamiento antes de tiempo. En cierto sentido, se podría decir que se ajustan a ella.

Por eso utilizan 3 submuestras, una de las cuales no participa en absoluto en el entrenamiento.

Validación: confirmación de la validez. Sí/No. La evaluación es algo complicado de hacer para un modelo de bondad de ajuste))) evaluaciones de bondad de ajuste, entonces))

La conversación gira en torno a los términos y sus significados, creo).

 
Valeriy Yastremskiy #:

Validación - confirmación de validez. Sí/No. La evaluación es un poco complicada para un modelo de adecuación a los objetivos. ))))) assessments for fit-for-purpose then).

La conversación gira en torno a los términos y sus significados, creo).

La validación precede a la evaluación, o incluye la evaluación, como se quiera. No se pretende llegar a eso.

y a lo que deberías haber llegado es a que los MOSers son submuestras confusas :)) Pero producen múltiples teorías utópicas de mercado a escala industrial.

Dado que nuestro objetivo es encontrar la red con el mejor rendimiento en datos nuevos, el enfoque más sencillo para comparar diferentes redes es estimar la función de error en datos independientes de los utilizados para el entrenamiento. Las distintas redes se entrenan minimizando la función de error correspondiente definida con respecto al conjunto de datos de entrenamiento. A continuación, se compara el rendimiento de las redes evaluando la función de error en un conjunto de validación independiente, y se selecciona la red con el menor error con respecto al conjunto de validación. Este enfoque se denomina método de retención. Dado que este procedimiento por sí solo puede provocar cierta sobrecarga del conjunto de validación, el rendimiento de la red seleccionada debe validarse midiendo su rendimiento en un tercer conjunto de datos independiente, denominado conjunto de prueba.

Una aplicación de este proceso es la detención temprana, en la que los modelos candidatos son iteraciones sucesivas de la misma red, y el entrenamiento se detiene cuando crece el error en el conjunto de validación, seleccionándose el modelo anterior (el que tiene el error mínimo).

https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_sets
 
Maxim Dmitrievsky #: Una aplicación de este proceso es la parada anticipada, en la que los modelos candidatos son iteraciones sucesivas de la misma red, y el entrenamiento se detiene cuando el error en el conjunto de validación crece, se selecciona el modelo anterior (el de error mínimo)

En datos con patrones - esto funcionará.
Si no hay casi ninguno, habrá un ajuste al gráfico en el que se hizo la parada temprana + una buena traza. Podrías simplemente aumentar la traza en una sección extra y obtener más o menos el mismo modelo.

 
Forester #:

En datos con patrones - funcionará.
Si no hay casi ninguno, habrá un ajuste al trazado en el que se hizo la parada temprana + un buen trazado. Podrías simplemente aumentar la traza en una sección extra y obtener más o menos el mismo patrón.

Esa es otra pregunta.
 
Maxim Dmitrievsky #:
Esa es otra cuestión.

Eso es lo que yo planteaba.

 
fxsaber #:

Eso es lo que estaba levantando.

Mezclando como mínimo, bootstrap. Si tus muestras son de distribuciones diferentes, de qué comparación puedes hablar.
MO no busca patrones, clasifica muestras con patrones ya conocidos.
Si buscar patrones mediante MO son técnicas separadas que yo hago, entonces buscar patrones mediante MO != sólo entrenar en submuestras.
 
Maxim Dmitrievsky #:
Mezcla como mínimo, bootstrap. Si tus muestras son de distribuciones diferentes, de qué comparación podemos hablar.
MO no busca patrones, clasifica muestras con patrones ya conocidos.
Si la búsqueda de patrones a través de MO son técnicas separadas que hago, entonces la búsqueda de patrones a través de MO != sólo la formación en submuestras.

Lamentablemente, tengo un malentendido terminológico.

 
fxsaber #:

Lamentablemente, tengo un malentendido terminológico.

Bueno, vivimos en la era moderna de los chatgpts :)

El muestreo bootstrap es una técnica de análisis estadístico que se utiliza para estimar los parámetros de una muestra mediante la creación de múltiples submuestras a partir de la muestra original. Este método estima la varianza y la media de un parámetro, y construye un intervalo de confianza para el parámetro. El muestreo bootstrap puede ser útil cuando no es posible obtener una muestra grande o cuando la muestra original no es representativa de toda la población.

Razón de la queja: