Discusión sobre el artículo "Procesos gaussianos en aprendizaje automático: modelo de regresión en MQL5"
Interesante.
La mayoría de las fotos no se cargan por alguna razón.
Compruébelo de nuevo, por favor.
Espero con impaciencia la continuación.
Existe una fuerte relación entre los Procesos Gaussianos para la regresión y el teorema de Wiener-Khinchin https://danmackinlay.name/notebook/wiener_khintchine.html https://www.numberanalytics.com/blog/wiener-khinchin-theorem-guide Sería estupendo que continuaras en esta dirección para ilustrarnos .
Wiener-Khintchine representations – The Dan MacKinlay stable of variably-well-consider’d enterprises
- danmackinlay.name
Spectral representations of stochastic processes
Una herramienta matemáticamente hermosa, pero que resultó ser de nicho, como, por ejemplo, el método de los vectores soporte. En realidad, no se oye hablar de su uso en ninguna parte :) Todos los modelos basados en mezclas gaussianas son lentos y funcionan mal con grandes volúmenes de datos.
nevar #:
Existe una fuerte relación entre los Procesos Gaussianos para la regresión y el teorema de Wiener-Khinchin https://danmackinlay.name/notebook/wiener_khintchine.html https://www.numberanalytics.com/blog/wiener-khinchin-theorem-guide Sería estupendo que continuaras en esta dirección para ilustrarnos .
El análisis de Fourier es más sobre estacionariedad y relaciones lineales. Es más fácil trabajar en el dominio del tiempo con modelos ARIMA, es equivalente en cierto sentido al análisis de Fourier.Existe una fuerte relación entre los Procesos Gaussianos para la regresión y el teorema de Wiener-Khinchin https://danmackinlay.name/notebook/wiener_khintchine.html https://www.numberanalytics.com/blog/wiener-khinchin-theorem-guide Sería estupendo que continuaras en esta dirección para ilustrarnos .
Pero los GP ya tratan de la búsqueda de relaciones no lineales, en este sentido no están lejos de las redes neuronales, como MLP, pero con la posibilidad de extrapolación y construcción de intervalos de confianza de las previsiones.
Por lo tanto, no planeo cubrir Fourier, pero continuará en GP.
Maxim Dmitrievsky método de los vectores soporte. En realidad, no se oye hablar de su uso en ninguna parte :) Todos los modelos basados en mezclas gaussianas son lentos y funcionan mal en big data.
No es una herramienta muy popular, desde luego, pero yo la veo prometedora. Lo que me atrae es que una vez que entiendes el enfoque kernel, obtienes un único punto de vista coherente sobre el análisis de datos. Hay regresión y clasificación y estimación de densidad de kernel y selección de características significativas y pruebas estadísticas de independencia, etc. Evgeniy Chernish #:
No es una herramienta muy popular, desde luego, pero la veo prometedora. Me atrae el hecho de que, una vez comprendido el enfoque kernel, se obtiene un único punto de vista coherente sobre el análisis de datos. Hay regresión y clasificación y estimación de la densidad del núcleo y selección de características significativas y pruebas estadísticas de independencia, etc.
No es una herramienta muy popular, desde luego, pero la veo prometedora. Me atrae el hecho de que, una vez comprendido el enfoque kernel, se obtiene un único punto de vista coherente sobre el análisis de datos. Hay regresión y clasificación y estimación de la densidad del núcleo y selección de características significativas y pruebas estadísticas de independencia, etc.
En fin, interesante :)
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Procesos gaussianos en aprendizaje automático: modelo de regresión en MQL5:
Los procesos gaussianos (GP) son una herramienta de modelado bayesiano ampliamente usada en el aprendizaje automático para problemas de regresión y clasificación. A diferencia de muchos modelos tradicionales que solo ofrecen pronósticos puntuales, los GP generan una distribución de probabilidad completa para los valores previstos. Esto nos permite no solo obtener predicciones puntuales, sino también una evaluación importante de la incertidumbre de estas predicciones, expresada a través de intervalos de confianza. Esta es una característica distintiva del enfoque bayesiano, que combina el conocimiento previo con los datos observados para obtener una distribución predictiva.
Los GP pertenecen a la clase de métodos de kernel que usan funciones de covarianza (o kernels) para modelar dependencias entre datos. La capacidad de combinar diferentes kernels (por ejemplo, mediante suma o multiplicación) permite cierta flexibilidad al describir posibles funciones predictivas. Cada kernel tiene sus propios hiperparámetros que deben optimizarse para lograr la máxima precisión del modelo.
En este artículo, examinaremos con detalle el proceso de pronóstico utilizando un modelo de regresión de proceso gaussiano y demostrando claramente cómo los GP permiten no solo generar pronósticos precisos sino también evaluar exhaustivamente su incertidumbre.
Autor: Evgeniy Chernish