Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2406

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Referencia para las métricas, yo mismo no conozco algunashttps://russianblogs.com/article/7586220986/
Si los signos están distribuidos uniformemente en un cubo unitario, la métrica de Chebyshev parece intuitivamente la más correcta. Otra cosa es que es poco probable que las características arbitrarias puedan normalizarse tan bien.
Si los rasgos se distribuyen uniformemente en un cubo unitario, la métrica de Chebyshev parece intuitivamente la más correcta. Otra cosa es que es poco probable que normalice los signos arbitrarios tan bien.
Experimenté con la normalización, obteniendo pérdidas decentes en los modelos, mejor sin ella. Por tanto, bosques de árboles, no redes neuronales.
Experimenté con la normalización, obteniendo pérdidas decentes en los modelos, mejor sin ella. Por eso los bosques de árboles, no las redes neuronales.
Yo también me inclino(también gracias a tus esfuerzos) por algo como xgboost. Pero la normalización, así como la investigación preparatoria general con características, nunca está de más. También necesito un enfoque flexible para construir una función objetivo personalizada.
Por tanto, bosques de árboles, no redes neuronales.
Sí, hace unos años alguien en este hilo escribió una idea así: sugirió bosques y comparó las redes neuronales con las armas nucleares. Dijo que sólo deben utilizarse cuando otros métodos no pueden ayudar. Pero algún Maxim lo ha cagado.
Me pregunto... ¿Tenía razón?
También me estoy inclinando(también gracias a tu trabajo) por algo como xgboost. Pero la normalización, así como el trabajo de investigación preparatoria general con características, nunca está de más. También necesitamos un enfoque flexible para la construcción de funciones objetivas personalizadas.
recomiendan LightGBM o CatBoost, XGBoost se queda atrás
Resulta que cualquier preprocesamiento matará a Alfa. Esto es si tomas los incrementos y comienzas a secarlos. Lo ideal sería tomar la serie original (comillas), pero no se puede entrenar debido a su no estacionariedad. Esto se puede ver claramente en el artículo sobre la diferenciación fraccionaria (enterraremos la memoria del mercado). Cuantas más transformaciones se apliquen, menos queda algo allí.
Sí, hace unos años alguien en este hilo escribió una idea así: sugirió un andamiaje y comparó las redes neuronales con las armas nucleares. Dijo que sólo deben utilizarse cuando otros métodos no pueden conseguir nada. Pero algún Maxim lo ha cagado.
Me pregunto... ¿Tenía razón?
Será mejor que des alguna prueba, no tengo ni idea de lo que estaba hablando.
Conclusiones similares - sólo árboles. Es especialmente divertido cuando los máximos se actualizan y todo cambia. Por supuesto, puedes establecer los máximos de forma manual o automática (para cada función), pero es una muleta.
Sí, no importa que resulte ser una tontería