Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2836

 
Evgeni Gavrilovi #:

No, por desgracia.

¿Tuvo una buena formación o ninguna?

 
mytarmailS #:

¿La formación ha ido bien o no ha habido formación?

Normal, en el sentido de que el cálculo es correcto (tuve max Sharpe en el nivel 3 - 4), pero como la clase es sin decorador njit, el entrenamiento es muy lento.

 
Evgeni Gavrilovi #:

Está bien, en el sentido de que el cálculo es correcto (max Sharpe que tenía estaba en el nivel 3 - 4), pero ya que la clase es sin el decorador njit, el aprendizaje es muy lento

¿Qué es un decorador njit ?

 
mytarmailS #:

¿Qué es un decorador njit?

un aditamento de los desarrolladores de pandas para acelerar la ejecución de código en funciones.

 
Andrey Dik #:

No importa si es en la historia o en el futuro. Y el probador en sí no tiene nada que ver.

Lo que importa es la propiedad del algoritmo (algoritmo de optimización individual o como parte de una red) para encontrar el óptimo global del criterio de evaluación. Subrayo: el criterio de evaluación. El criterio de evaluación no es necesariamente y/o únicamente el beneficio. Puede ser cualquier cosa, por ejemplo, el criterio de evaluación de trabajo en OOS no es un criterio (minimizar la diferencia entre la muestra y OOS)? - es sólo una idea. Los criterios pueden ser cualquier cosa y de cualquier complejidad. Es importante entender que el criterio "Beneficio" es una cosa muy gullida y discreta, por lo que la gente trata de llegar a criterios de evaluación más suaves y monótonos, lo que en general mejora la calidad de la optimización en sí y de la formación neuronal en particular.

Por lo tanto, volviendo a lo que he dibujado en el cuadro muy artístico, una ilustración visual del hecho de que en condiciones en las que no se conocen ni el número ni las características de los extremos locales, la única salida es buscar en la medida de lo posible el que sea posible en condiciones de capacidades computacionales limitadas.

Meseta: sí, existe tal noción, pero no está relacionada con la optimización, sino que se trata de clasificar conjuntos similares de parámetros por algún atributo. Buscar una meseta estable es una tarea compleja aparte.

Una vez más: los extremos no tienen ningún valor: un punto inestable, que tampoco existe, ya que se trata de procesos aleatorios, y no estacionarios.

Tenemos que buscar una meseta, incluso la que se muestra en la figura, siempre que sea rentable, aunque esté por encima del mínimo local y global. Dicha meseta mostrará teóricamente el límite superior de rentabilidad de la ST. Y los extremos encontrados no son nada - definitivamente no están en el futuro, pero hay esperanza de una meseta



 

Tienes una idea extraña de "meseta". una meseta no es un tipo de zona sobre la función en estudio. una meseta es un conjunto de conjuntos de parámetros sobre algún atributo.

el beneficio no tiene nada que ver con la no estacionariedad de las series y mucho menos con la capacidad de la red para aprender y trabajar con resultados similares sobre datos desconocidos.

usted toma una función como profit literalmente, es decir, como si esta función se pareciera a un gráfico de equilibrio en un probador. esto es fundamentalmente erróneo.

 
СанСаныч Фоменко #:

Una vez más: los extremos no tienen ningún valor: un punto inestable, que además no existe, ya que se trata de procesos aleatorios, y no estacionarios.

Hay que buscar una meseta, incluso la que se muestra en la figura, siempre que sea rentable, aunque esté por encima del mínimo local y global. Dicha meseta mostrará teóricamente el límite superior de rentabilidad de la ST. Y los extremos encontrados no son nada - definitivamente no están en el futuro, pero hay esperanza de una meseta

La optimización no consiste en encontrar no se sabe qué, sino en mejorar la rentabilidad de la ST, por ejemplo.

Usted tiene toda la superficie de interés en una situación normal, y especialmente los extremos como un aumento en el beneficio potencial, digamos. Y usted tendrá tiempo para rodar hasta la meseta.

¿O toda la superficie se ha hundido y sólo hay extremos y mesetas sobresaliendo del agua que hay que encontrar? Entonces ya es un ajuste inicial.

Es como reunirse y decir: "Vamos a optimizar algo y buscar una meseta", y si encontramos una meseta, ahí hay un tesoro. ¿Es así como lo ve?

Por supuesto que hay esperanza de salvación, pero es insignificante.

 

Imagino que el proceso de encontrar conjuntos de redes neuronales que funcionen puede ilustrarse con un ejemplo: existe una montaña imaginaria, el Everest, que tiene un único máximo. la tarea consiste en trazar un camino hasta el máximo de forma que el ángulo del camino no supere los 3 grados y el camino sea lo más corto posible. Si se busca un camino recto hasta la cima, seguramente mucha gente se estrellará y morirá (llorarán cuando aterricen en la base, aplastados, quejándose de la no estacionariedad de la rosa de los vientos). ¿para qué se necesita un máximo así? existe otra función, la función derivada de la montaña, que incluye dos criterios: el ángulo de inclinación de la montaña y la longitud del camino. Este problema se reduce a optimizar y encontrar el mínimo de esta función derivada de la montaña (minimización del ángulo de inclinación y de la longitud del camino). así que esta función tendrá muchos extremos locales y sólo uno global. resolviendo así este problema encontraremos un camino seguro a la cima del Everest, nadie morirá y la no estacionariedad de los vientos no nos importará. pero "meseta" debe entenderse no como una determinada plataforma en la montaña donde se puede tomar un descanso, sino como un grupo de opciones de camino con características similares de ángulo*longitud que satisfacen los requisitos de seguridad.

Así es, de forma general. No todos los algoritmos son capaces de encontrar un camino "seguro". tanto las propiedades de búsqueda como la convergencia y la velocidad de convergencia son importantes.

 

Además, ¿por qué se introducen derivadas de una función para resolver problemas como el del ejemplo anterior? para hacer más suave la superficie de la función.

Otro ejemplo, bastante cercano a la práctica. hay un problema con 10 preguntas, la red debe responder a 10 preguntas. contemos el número de respuestas. el máximo en este caso será 10. es decir, la función de este problema es discreta. con muchos extremos locales. ¿por qué? miremos aquí:

Contemos las respuestas correctas e incorrectas. 0 es incorrecto, 1 es correcto.

0 1 1 0 0 0 0 1 0 0 1 1 1 : 4 correctas.

1 1 1 0 0 0 0 0 0 0 0 0 1 : 4 correctas.

0 1 0 1 0 1 0 0 0 1 1 0 0 : 4 correcto

0 0 0 0 0 1 0 0 0 1 1 1 1 : 4 correcto

0 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 : 4 correcto

.......................................

podemos ver que la red da opciones de respuesta con una puntuación de 4. este es un ejemplo de cómo la red está atascada. no ve más crecimiento. barajar respuestas no puede dar más puntos.

¿cómo hacer que la red sea más eficiente? bien, para ello, la función de respuesta original se convierte en una función de error. así, minimizando el error total sobre todas las respuestas, la red encontrará todas las respuestas correctas. en este caso, el problema se reduce a minimizar el error, el mínimo es global 0, la función tiene muchos extremos, pero ahora es suave, el juego se reduce a frío, más caliente, caliente, caliente, lo que es mucho más "suave" que simplemente sí o no.

pero. desgraciadamente, la función problema no siempre puede transformarse en una función suave. las funciones presentadas en artículos y deben tomarse como ya transformadas, mientras que las originales tienen una topografía mucho más compleja. así pues, la eficacia de los algoritmos de optimización reside en la capacidad de encontrar el extremo de la derivada de la función.

 

Si estuviera en otro sitio, entonces nada sorprendente, pero para discutir los extremos con personas que han visto millones de resultados de los probadores - es imposible encontrar palabras. Una idea es que están divorciados.

Una vez más: ¡no hay extremos! No, los vemos, incluso ordenados por beneficios o de otro modo, pero no hay extremos. Al igual que no hay águila en una moneda que cayó con el águila hacia arriba, porque no es un águila, pero la probabilidad de un águila. Todos tus extremos son probabilidades de extremos. Podrías hablar del valor de un extremo en el sentido de expectativa matemática e intervalo de confianza, pero es imposible hablar de ello, porque no hay expectativa matemática ¡porque el valor del extremo no es estacionario!


Usted lo ha visto un millón de veces, cuando se optimiza un Asesor Experto en un intervalo - se obtiene un conjunto de parámetros con un conjunto de resultados óptimos. Si se toma otro intervalo, a menudo simplemente aumentándolo, se obtiene otro conjunto de parámetros con resultados diferentes, y se puede obtener una pérdida. ¿Qué? ¿Ninguno de ustedes ha visto esto? Y no tiene nada que ver con el algoritmo de optimización. Usted puede genética, puede completar el sobremuestreo, lo que puede mejorar la genética, pero fuera de la muestra de optimización el resultado será uno, muy probablemente triste.

Razón de la queja: