Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1240

 
Maxim Dmitrievsky:

No estamos en esto por el dinero, sino por la idea). Se puede ganar dinero por medios mucho más triviales.

Sí, qué sentido tiene esta idea. Bueno, existe el machine learning, pero no se producen milagros, es sólo un indicador más sofisticado y nada más.

Quiero negociar algunas acciones, futuros, pero voy a necesitar más dinero allí, significa, que no es para mí.

No sé cómo utilizar estos indicadores, pueden ser de diferentes tipos de comercio.

 
forexman77:

Sí, qué sentido tiene esa idea. Bueno, existe el machine learning, pero no hay milagros, es sólo un indicador más sofisticado y nada más.

Bueno, o el comercio de acciones, o el de futuros, pero ahí necesito más dinero, así que no es para mí.

Tengo muchos nervios y fuerzas, mientras que la salida es como la carne de un mosquito.

Tengo que calentarme el culo y luego sufrir... o buscar un taxi en este campo

 

Para hacerlo aún más corto, imagina que el Forex es una montaña que tienes que escalar. Pero, es prácticamente una montaña lisa sin nada a lo que agarrarse.

Y las mejoras en la MO del 1-2% no harán prácticamente nada, ahí no hay predictores, sólo ruido y todo, el resto es reentrenamiento y nada más.

 
Maxim Dmitrievsky:

en resumen en alglib error de clasificación y logloss... El logloss no tiene ningún sentido, el error de clasificación en el bosque cae a cero en la muestra de entrenamiento>0,8 y oob 0,2.

Por eso tomé una pequeña muestra de entrenamiento para tener algún tipo de error, pero sigue siendo pequeña. No sé cómo comparar con los de Python.

Más bien se trata de una reconversión... Los árboles pueden memorizar completamente los datos de entrada. R se puede reducir, y parece que no hay nada más que ajustar en Algibe. En xgboost, por ejemplo, se puede limitar la profundidad del árbol.
Por eso no las usé al principio y me pasé a las mallas. Pero las redes tienen sus propios problemas.
 
Vizard_:

divertidísimo... Maximka por eso está drogado))) No he escrito nada. En resumen: la pérdida de troncos es una pena. Cámbialo en akuarisi, es fácil de interpretar, por eso se usa.

Logloss mona luego doblar un poco y un par más por ciento si tienes suerte para exprimirlo. Le mostró a Fa, hay una biblia en R...

Siempre me olvido de la mitad, y luego me sorprendo al cabo de un año de lo mismo. recalcular :) hay algunas tonterías en alglib, no como en las librerías serias, y el bosque es casero.

 
Vizard_:

divertidísimo... Maximka por eso está drogado))) No he escrito nada. En resumen: la pérdida de troncos es una pena. Es fácil de interpretar, por eso se utiliza.

Logloss mona luego doblar un poco y más por ciento-par si tienes suerte de exprimir en accuarisi. Le mostré a Fa, hay una biblia en R... Lo que está en el algib, no sé lo que está pasando en su configuración...

bajar la codicia del traqueteo...

Alglib-e sólo tiene r para la regularización
 

No creo que se pueda aplicar acuracu a los mercados en absoluto, las clases allí están desequilibradas desde el principio.

Si tienes akurasiu 100% todo volará a la clase mayoritaria es la peor métrica. Es mejor mirar la matriz de confusión, ya que muestra cómo se dividen las clases.

 
elibrarius:
Más bien un sobreentrenamiento... Treynes, en cambio, puede memorizar completamente los datos de entrada. R se puede reducir, y parece que no hay nada más que ajustar en Alglib. En xgboost, por ejemplo, se puede limitar la profundidad del árbol.
Por eso no las usé al principio y me pasé a las mallas. Pero las redes tienen sus propios problemas.

sólo hay el número de árboles y r sí, si r es mayor que 0,6 casi siempre hay un error de clasificación en una bandeja 0,0 :))) en la prueba puede haber variaciones, por lo general alrededor de 0,5

 
forexman77:

No creo que se pueda aplicar acuracu a los mercados en absoluto, las clases allí están inicialmente desequilibradas.

Si tienes akurasiu 100% todo volará a la clase mayoritaria es la peor métrica. Prefiero ver la matriz de confusión, muestra específicamente cómo se dividen las clases.

Yo tampoco entiendo muy bien la Precisión. La matriz de error o el error de clasificación es más claro, y lo muestro en la pantalla.
 
Vizard_:

Nspesh probar diferentes en python también. Cat Boost, por ejemplo, no es una gran oferta ni siquiera fuera de la caja + se come todo lo que hay en una fila + hay un visualizador con un punto (ponlo cuando el corte no está mejorando realmente) y así sucesivamente...

ya instalado, mañana lo probaré, junto con sólo GBM, tal vez LightGbm... un xgboost es algo tedioso de configurar, lleva mucho tiempo averiguarlo

Razón de la queja: