Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1537
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿argumentos?
Qué argumentos se necesitan - el parámetro 6 es el predeterminado, se deduce de la tabla de ajustes.
Es extraño, porque la profundidad del árbol depende más de los enlaces completos entre predictores, por eso me sorprende que a partir de estos dos enlaces independientes, de complejidad total en torno a 200 se obtenga un buen modelo, a juzgar por los gráficos.
Qué argumentos son necesarios - el parámetro 6 por defecto, se desprende de la tabla de ajustes.
Es extraño, porque la profundidad del árbol depende más de los enlaces completos entre los predictores, por lo que es sorprendente que estos dos enlaces independientes, con una complejidad total de alrededor de 200, hagan un buen modelo, a juzgar por los gráficos.
Por eso digo que los datos están fuera. Bosque reentrenado en ellos (tal vez llegar a fijar esta característica del bosque, mediante la categorización de las características). Ahora poner 6 - re-entrenamiento en trayn va muy bien, acurasi bajo 0,9.
6 para mi es demasiado, 2-4 es normal
La analogía con el bosque es directa, no hay límite en la profundidad de los árbolespor eso digo que los datos se están sacando. Bosque reentrenado en ellos (puede ser capaz de arreglar esta característica del bosque, mediante la categorización de las características). Ahora poner 6 - re-entrenamiento en el camino va sustancial, acurasi bajo 0,9.
6 para mi demasiado, 2-4 normal va
La analogía con el bosque es directa, allí la profundidad de los árboles no está limitadaNo entiendo, antes has dicho que tienes predictores en forma de incrementos, entonces ¿cómo quieres convertirlos en predictores categóricos?
Muchas cosas no cambian esencialmente de la representación del árbol - he diseccionado árboles, hay muchas hojas individuales del árbol simplemente combinadas en una hoja larga esencialmente, y una proporción muy grande de esas hojas están duplicadas o tienen valores intermedios/enlaces sin sentido que pueden ser podados. Generalmente he visto en mi muestra que la profundidad del árbol afecta al número de árboles, y puedes obtener el mismo resultado en un árbol de 4 divisiones.
No entiendo, antes has dicho que tienes predictores en forma de incrementos, entonces ¿cómo quieres convertirlos en predictores categóricos?
Muchas cosas no cambian esencialmente de la representación del árbol - he diseccionado árboles, hay muchas hojas individuales del árbol simplemente combinadas en una hoja larga esencialmente, y una proporción muy grande de esas hojas están duplicadas o tienen valores intermedios/enlaces sin sentido que pueden ser podados. Generalmente he visto en mi muestra que la profundidad del árbol afecta al número de árboles, y se puede obtener el mismo resultado en un árbol de 4 divisiones.
Primero se divide en categorías, por ejemplo, 20 rangos-categorías. Luego la codificación vanchot (mediante atributos ficticios) o lo que sea, aún no se ha decidido. Al final, cada característica será binaria o algo así.
cuantos más valores diferentes haya para el bosque, mayor será el sobreentrenamiento. A medida que aumenta la muestra de entrenamiento, aumenta el sobreentrenamiento. Para Catbust, no. Así que para el bosque intenta reducir el número de opciones para las características continuas categorizándolas. No estoy seguro de que ayude, ya veremos.
No estoy seguro de que te salve, veamos.
Primero, divídelo en categorías, por ejemplo, 20 rangos. Luego la codificación vanchot (a través de atributos ficticios) o algo más, aún no lo he decidido. Al final cada característica será binaria o algo así.
No sé, se trata más bien de acelerar el procesamiento de los datos, de no fragmentar dichos predictores, de no comparar unos con otros en una cadena de hojas, no he visto ningún efecto que valga la pena, por desgracia. Y la lógica es que no son valores comparables, es vanchoring combinado en un grupo para igualar la selección aleatoria.
cuantos más valores diferentes para un bosque más sobreentrenamiento. A medida que aumenta la muestra de entrenamiento, crece el sobreentrenamiento. El catbusto no lo hace.
La dependencia de la muestra de la formación allí tampoco es inequívoca: hice medio año o estudios similares anteriores. Es más probable que haya una dependencia de los datos, que deberían ser comparables.
Un enfoque sencillo e interesante sobre cómo describir los patrones para el MdD
https://www.quanttrader.com/index.php/a-simple-algorithm-to-detect-complex-chart-patterns/KahlerPhilipp2019
mega-primitivo, hay formas mucho más precisas de describir un patrón
mega-primitivo, hay formas de describir el patrón con mucha más precisión
¿Cómo qué?
Estoy dispuesto a pagar una cantidad razonable por el Grial, confirmada en lo real (los informes de prueba no me interesan) por al menos 3 meses de trabajo.
Creo que el valor real del Grial = la suma del patrimonio actual del comerciante. Es decir, 1.000 dólares de capital en la cuenta, por lo que la ST vale la misma cantidad. Si mi uso del Grial se basa en tecnologías de redes neuronales y/o modelos físicos y matemáticos, las estadísticas reales y la voluntad de venderlo, no dude en ponerse en contacto conmigo y lo discutiremos.
Quien realmente gana en el mercado no venderá su tecnología por millones de verdes, tal vez por cientos de millones... Es decir, si alguien les da una "caja negra" de software que haga buenas previsiones o señales ya hechas, necesitan 10-30$ al mes por los datos y la calidad de ejecución es aún más cara que los datos, es como comparar a un niño en un arenero y una empresa minera de oro, el niño quiere sacar oro con su pala pero no puede hacerlo... ¿Tal vez una paleta diferente? ¿Preguntar a otros niños de la guardería que tienen esa pala? Lo más probable es que alguien tenga uno. Los niños suelen ser soñadores:)
No sé, se trata más bien de acelerar el procesamiento de los datos, de no dividir dichos predictores, de no comparar unos con otros en la misma cadena de hojas, no vi ningún efecto que valga la pena, por desgracia. Y la lógica es que no se trata de valores comparables, sino de una codificación vanchot combinada para igualar la selección aleatoria.
La dependencia de la muestra en el aprendizaje allí tampoco es inequívoca - he hecho medio año o estudios anteriores similares. Es más probable que haya una dependencia de los datos, que deberían ser comparables.
Ese artículo en inglés trata justamente de eso, sí, de no comparar los valores de una variable entre sí cuando hay muchas de ellas - esto sólo lleva al sobreentrenamiento
Tal vez no sea la longitud, es otra cosa, te digo lo que veo. Aumento el muestreo - se pone más bonito en Trayne, peor en la prueba. Aunque la generalización debería subir con el aumento del tamaño de la bandeja, en el bosque es al revés.
¿como por ejemplo?
dtw, análisis del espectro... un montón...
he conseguido crear un algoritmo que sabe ver los mismos patrones independientemente de su magnitud, así que el algoritmo mira un gráfico y ve el patrón tanto en el gráfico de un minuto como en el de una semana, mirando sólo un gráfico, y puede hacer predicciones reales, pero todavía tengo mucho trabajo