Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 979

 

He jugado con NS y kfold también con conjuntos NS de alglib para la clasificación (softmax), primera impresión:

1. El LBFGS se entrena mucho más rápido que el LM (es irreal esperar al segundo), incluso para un NS sin conjunto.

2. kfold sigue mostrando un gran error de aprendizaje, no conseguí llevar la estrategia a posiciones ++ ni siquiera a 2 faltas, por no hablar de 10. Tal vez no sea muy adecuado para mi tarea, pero lo intentaré de nuevo.

El conjunto de NS basado en el algoritmo de bagging y LBFGS es de la misma calidad que el conjunto de andamios, pero se entrena más lentamente

3. Conjunto de parada temprana con muestreo de validación (LM es utilizado por mí): no puedo esperar para aprenderlo en absoluto.

4) El ajuste de los parámetros (paso, número de disparos) no proporciona mejoras visibles. Aumentar el número de neuronas en 2-3 veces da una pequeña mejora.

5. En general, tengo la impresión de que los NS se reciclan de la misma manera, el conjunto de NS en buggies se reciclan un poco menos que el comité del bosque.

Todo esto se hizo para luego comparar con xgboost por ejemplo, que investigaré más adelante.

++ apilar modelos conmigo no dio más estabilidad, entrena igual, a veces se pueden mejorar los resultados en una bandeja porque el modelo simplemente entrena más

 
Maxim Dmitrievsky:

Hola, un poco fuera de tema. Una vez en el foro encontré su correspondencia con otra persona. Allí se discutía qué programa se utiliza para hacer la ayuda de Microsoft. (La que aparece al pulsar F1). Para recoger allí mis variantes de código en forma más conveniente con la búsqueda. Por favor, vuelva a avisar. (Espero no haberme equivocado y haber sido tú)))

 
Evgeny Raspaev:

Hola, un poco fuera de tema. El otro día encontré su correspondencia con otra persona en el foro. Ahí estabas discutiendo qué programa usas para hacer la ayuda de Microsoft. (La que aparece al pulsar F1). Para recoger allí mis variantes de código en forma más conveniente con la búsqueda. Por favor, vuelva a avisar. (Espero no haberme equivocado y haber sido tú)))

Creo que no fui yo) no lo recuerdo.

 
Maxim Dmitrievsky:

No creo que haya sido yo) no lo recuerdo.

Lo siento, lo siento))

 
Evgeny Raspaev:

Lástima, me disculpo))

Ayuda y manual de prueba.
 
Dmitriy Skub:
Ayuda y Manual pruébalo.

Oh, justo lo que necesito.

 

Buenas tardes ))


Mientras que usted está buscando aquí hasta ahora, ya hemos creado REE - el elemento rompedor ruso.

Este es el "quinto elemento": el grial, la piedra filosofal, el cinabrio, el sistema qi, el logro de nuestros expertos científicos en algoritmos.

Ahora cualquier proyecto económico -financiero se optimizará mediante un análisis neuronal profundo en el RPE.

Es decir, en el futuro, 1 rublo se equiparará a 1 dólar, gracias a los avances económicos.


estamos en camino hacia un futuro más brillante))

 
Alexander Ivanov:

Buenas tardes ))

....

Debes ser uno de los equipos de genios, ¿no? Espera, las mentes inmaduras ordinarias pueden no entender)

 
Maxim Dmitrievsky:

He jugado con NS y kfold también con conjuntos NS de alglib para la clasificación (softmax), primera impresión:

1. El LBFGS se entrena mucho más rápido que el LM (es irreal esperar al segundo), incluso para un NS sin conjunto.

2. kfold sigue mostrando un gran error de aprendizaje, no he conseguido que la estrategia se sitúe en posiciones ++ ni siquiera a 2 faltas, por no hablar de 10. Tal vez no sea muy adecuado para mi tarea, pero lo intentaré de nuevo.

El conjunto de NS basado en el algoritmo de bagging y LBFGS es de la misma calidad que el conjunto de andamios, pero se entrena más lentamente

3. Conjunto de parada temprana con muestreo de validación (LM es utilizado por mí): no puedo esperar para aprenderlo en absoluto.

4) El ajuste de los parámetros (paso, número de disparos) no proporciona mejoras visibles. Aumentar el número de neuronas en 2-3 veces da una pequeña mejora.

5. En general, tengo la impresión de que los NS se reciclan de la misma manera, el conjunto de NS en buggies se reciclan un poco menos que el comité del bosque.

Todo esto se hizo para luego comparar con xgboost por ejemplo, que investigaré más adelante.

++ apilar modelos conmigo no dio más estabilidad, aprende igual, a veces puedes mejorar los resultados en una bandeja porque el modelo es simplemente más entrenable

También me gustaría saber el nombre de ese juguete con el que estás jugando.

 
Vladimir Perervenko:

Me gustaría saber el nombre del juguete con el que estás jugando.

Dice - biblioteca de análisis numérico alglib, portado a MT5. Ya lo he usado de arriba a abajo, no hay problemas en general, la biblioteca es buena. Pero sin visualización y con modelos más nuevos. Parece que la biblioteca ya no se desarrolla, hay silencio en su sitio web.

Razón de la queja: