Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1227

 
tóxicos:

Las fichas son una moneda de diez centavos en general, es difícil decir algo útil, y las específicas, bueno, ya sabes...

Hay una serie de "reglas" que permiten evitar errores graves en la construcción de las características con las series de tiempo, en particular, uno de los más violados es la banal "mezcla" de las características con los objetivos, las características deben ser estrictamente del pasado, y los objetivos de los puntos estrictamente del futuro, esta separación debe ser a nivel de algoritmo de conversión de la serie en el conjunto de datos, y no como todo el mundo hace todo tipo de indicadores a continuación, cortar para trazar y probar, cambiar algo en alguna parte y así sucesivamente. Deberíamos cortar la serie inicial y luego utilizar ventanas deslizantes (pasadas y futuras) para recorrer la serie y obtener características y objetivos por separado para Lerne y la prueba, o incluso para la validación. Por supuesto, puede hacerlo con indicadores, si sabe con seguridad que el indicador para las características no está mirando hacia adelante y para los objetivos no está mirando hacia atrás. Hay algunos errores más sutiles, pero no hablaré de ellos ahora.

Las transformaciones en sí mismas pueden ser diferentes, desde las triviales (retorno, variación, cambio de volumen, delta de pila, distribución de tratos, etc.) hasta todo tipo de exóticas.) docenas de estadísticas personalizadas específicas obtenidas por "inspiración" o agrupación que resultaron ser útiles, como "tendencia/verano" mencionada por Inokentiy anteriormente, así como "orden/haos", etc.) Algunas estadísticas son válidas para diferentes plazos, otras no, algunas características funcionan para algunos instrumentos, otras no, hay que saber filtrar y seleccionar los atributos para la orientación. Hay muchas cosas, modelos ARMA estándar , GARCH ... Predicción macro a medio y largo plazo como características, etc. No he llegado a hacer NLP\NLU para el análisis de flujos de texto, de redes sociales, etc. Ahí es donde se necesitará sin duda alguna el chapuzón.

Cuando estaba repitiendo los artículos de Vladimir Pererwenko, hice un experimento adicional - sin indicadores adicionales(filtros digitales para los últimos artículos), es decir, puramente en los precios. El resultado fue sólo un par de veces peor. E incluso entonces creo que es sólo un entrenamiento menos exitoso de NS (diferente mezcla e inicialización de pesos, y OHLC no eran del artículo, sino de mi servidor). NS hará fácilmente cualquier indicador dentro de sí mismo si lo necesita para las predicciones. Creo que no es necesario adivinar qué DF con qué parámetros (LPF/FTF/pasabanda o algún MA) es útil para la predicción. La NS lo hará todo con OHLC por sí misma.

Pero sobre los errores más sutiles sigue siendo interesante saber...

Es una pena que la información útil sobre la MO para BP esté dispersa en más de 1200 páginas. Me gustaría que todo estuviera en un solo lugar. Si no se trata de ideas de trabajo, por lo menos los callejones sin salida como ZZ, PCA y los avances y retrocesos.

 
Vuelve al infierno:

Así que el "grial" sólo puede estar en el contexto de la ultra-explotación, o más bien estaba allí cuando no existía esa turbia regulación, o una información privilegiada que está a disposición de los tipos que sin ella sólo pueden imprimir pasta en una crisis y comprar sus bonos con ella))

Ya estamos otra vez...

Me importan una mierda tus trillones y tus insiders, ya sabes el dicho "un perro ladra pero la caravana rastrea", no necesitamos tus insultos a la casa de bolsa donde te dejaste tus últimas cien libras, el mundo no es justo, tú tienes mala suerte, y yo tendré suerte, hago un millón de cien, y si no lo vuelvo a intentar, hasta que lo haga.


No nos impida soñar con yates e islas y hacer realidad nuestros sueños paso a paso. Ni siquiera saben dónde descargar a Voronov y cómo distinguir una tendencia de un piso.

 
Kesha Rutov:

Ya estamos otra vez...

Ya sabes lo que dicen: "El chucho ladra y la caravana rastrea". No necesitamos tus insultos a la casa de bolsa en la que dejaste tus últimas cien libras, el mundo no es justo, tú tuviste mala suerte y yo la tendré, ganaré un millón de cien y si no, lo volveré a intentar hasta conseguirlo.


No nos impida soñar con yates e islas y hacer realidad nuestros sueños paso a paso. Son todos "gurús" que no saben ni siquiera dónde descargar a Voronov y cómo distinguir una tendencia de un piso.

Diga de una vez: ¿para qué DC trabaja? Propagandista del sueño.
 

Sé que nadie lo ha probado, pero tal vez:

clasificar las operaciones por beneficios/pérdidas, respectivamente, al dividir las operaciones en clases dar más probabilidad a las más rentables, a las menos rentables alrededor de 0,5. Es decir, basta con ordenar las ofertas por eficiencia y asignarles probabilidades, está claro que las ofertas más eficaces aparecerán menos, y las más ruidosas, más.

¿merece la pena experimentar? ¿debería disminuir el error?

 
Maxim Dmitrievsky:

Sé que nadie lo ha probado, pero tal vez:

clasificar las operaciones por ganancias/pérdidas, respectivamente, al dividir las operaciones en clases, dar más probabilidad a las más rentables, a las menos rentables alrededor de 0,5. Es decir, basta con ordenar las ofertas por eficiencia y asignarles probabilidades, está claro que las ofertas más eficaces aparecerán menos, y las más ruidosas, más.

¿Vale la pena experimentar? ¿El error debería disminuir?

Se trata de una regresión, pero no por la altura de las barras, sino por los resultados de los tratos (probablemente lo necesite para los sistemas de autoaprendizaje). No voy a dar consejos, porque hace 5 meses que no trato con IR y ahora estoy pensando qué idea probar. Quiero disminuir automáticamente la influencia de los predictores de ruido. Al fin y al cabo, en el inicio de la rama se hizo.
 

1 2 En parte sí, un fenómeno de moda, pero es mi opinión, en sí mismo el "deep learning" no es en realidad la regresión/clasificación en sí, sino una forma de extraer características organizadas jerárquicamente de forma bastante simplea partir de datos de cierto tipo, por ejemplo las imágenes de píxeles dibujadas por la luz reflejada que llega a una cámara desde el "mundo real", por sí mismas como brillos de los píxeles, son características muy malas si las metes tal cual en un clasificador y la CNN hace una especie de "decorrelación de píxeles adyacentes" y compresión de la dimensionalidad, en múltiples pasadas, algo similar se puede hacer si agrupamos las imágenes en pequeños fragmentos, en general el "aprendizaje profundo" es una especie de agrupación en múltiples pasadas y luego alimentar "características de alto nivel" en un clasificador regular. El tema es ciertamente muy interesante, pero ya es hora de desarrollarlo teóricamente, no sólo de "ananalizar" con redes neuronales de diferente arquitectura entrenadas por backprop terriblemente lentas. Pero, una vez más, todavía no he conseguido que el diplerning sea amigable con el mercado, aunque la cuestión está abierta, porque es demasiado caro experimentar en esta dirección, como bien has señalado.

3 No tienes que poner constantes en las hojas del árbol, puedes poner modelos lineales, o más complejos, entonces habrá "extrapolación" más allá de la nube de puntos))

4 Tienes algo mal y el bosque y la potenciación pueden hacer regresión, no hay problema.

3. es decir, puede combinar y poner otros modelos en las hojas de los modelos del árbol de solver, me pregunto cómo funciona, por favor, dar un ejemplo real.

4. No se confunde y veo el problema, porque hasta ahora no he conocido la implementación en andamios del problema de regresión con muchas salidas (variables dependientes) como en las redes neuronales.
Tomemos, por ejemplo, la función de construcción de bosques aleatorios de la biblioteca MQL alglib.mqh

//+------------------------------------------------------------------+
//| This subroutine builds random decision forest.                   |
//| INPUT PARAMETERS:                                                |
//|     XY          -   training set                                 |
//|     NPoints     -   training set size, NPoints>=1                |
//|     NVars       -   number of independent variables, NVars>=1    |
//|     NClasses    -   task type:                                   |
//|                     * NClasses=1 - regression task with one      |
//|                                    dependent variable            |
//|                     * NClasses>1 - classification task with      |
//|                                    NClasses classes.             |

es decir, cuando el número de variables dependientes es superior a uno, esta función sólo puede resolver el problema de clasificación. Trae tu implementación con solución a este problema, y por favor en código, después de todo estamos en un foro de programadores :)

 
Maxim Dmitrievsky:

Sé que nadie lo ha probado, pero tal vez:

clasificar las operaciones por beneficios/pérdidas, respectivamente, al dividir las operaciones en clases dar más probabilidad a las más rentables, a las menos rentables alrededor de 0,5. Es decir, basta con ordenar las operaciones por eficiencia y asignarles probabilidades, está claro que las operaciones más eficientes aparecerán menos, y las más ruidosas aparecerán más.

¿Vale la pena experimentar? ¿El error debería disminuir?

Si es en el probador y con el fin de, indirectamente, a través de la rentabilidad de las operaciones, llegar a los puntos de entrada correctos, entonces por qué no encontrarlos de una vez e ideal, por la serie de precios, aunque ya pregunté esto en el hilo de Monte Carlo:)
 
Ivan Negreshniy:
Si es en tester y para llegar a los puntos de entrada correctos indirectamente, a través de la rentabilidad de las ofertas, por qué no encontrarlos de una vez e ideal, por series de precios, aunque ya lo pedí en la rama de Montecarlo:)

entonces habrá pocos ejemplos y los nuevos datos nos harán un ciego perdedor, necesitamos que "vea" todo lo posible en su vida

no se puede ir a por un zigzag ideal porque no se van a encontrar características, debe ser un proceso de doble filo de probar todo simultáneamente :)

Ya estoy pensando si tomar más clases en lugar de 2

 
Maxim Dmitrievsky:

entonces habrá pocos ejemplos y sobre los nuevos datos ns volverán ciegos perdidos, ella debe "ver" en su vida tanto como sea posible

Es lógico, pero por otro lado puede ser mejor para ella ver menos y negociar sólo lo seguro que estar constantemente señalando y aumentando el riesgo.
 
Ivan Negreshniy:
es lógico, pero por otro lado puede ser mejor ver menos y negociar sólo una cosa segura en lugar de señalar continuamente y aumentar el riesgo.

Siempre busco errores en una muestra de prueba. Esta "cosa segura" sólo aparece para un ser humano, nosotros "pensamos" de manera diferente.

Creo que la forma de pensar de una red neuronal... no le importa si es algo seguro o no, mientras pueda generalizar

si pones una porquería en el rango de 0,5, y los picos son oficios de calidad, mejoraría la capacidad de generalización... habría que comprobarlo, claro, porque no se puede hacer a ojo
Razón de la queja: