Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1776

 
Aleksey Vyazmikin:

Estas, como usted dice, "posibilidades" pueden ser apiladas, y por eso se mantienen así.

De hecho... Suman estos logodds de diferentes árboles. A continuación se calcula la probabilidad final.
 
Aleksey Vyazmikin:

Sí, en los nuevos, pero ahora me he dado cuenta de que el objetivo está mal. Tomé el vector ZZ real con un desplazamiento, que es incorrecto.

Tendré que redactar un guión para sacar el objetivo.

¿Qué pasa? ¿Cuál es el resultado?

 
Maxim Dmitrievsky:

Lo vi en alguna parte de los tutoriales... Creo que es más conveniente hacerlo durante el preaprendizaje o algo que tenga que ver.

Maxim, parece que ahora estás haciendo clustering.
Aquí se muestra que el andamiaje es similar a la agrupación.

https://habr.com/ru/company/ods/blog/324402/

Sección "Similitud del bosque aleatorio con el algoritmo del vecino más cercano".

Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
Открытый курс машинного обучения. Тема 5. Композиции: бэггинг, случайный лес
  • habr.com
Пятую статью курса мы посвятим простым методам композиции: бэггингу и случайному лесу. Вы узнаете, как можно получить распределение среднего по генеральной совокупности, если у нас есть информация только о небольшой ее части; посмотрим, как с помощью композиции алгоритмов уменьшить дисперсию и таким образом улучшить точность модели; разберём...
 
elibrarius:


¿Hay alguna pregunta?

 
elibrarius:

Maxim, parece que ahora estás haciendo clustering.
Aquí se muestra que el andamiaje es similar a la agrupación.

https://habr.com/ru/company/ods/blog/324402/

Sección "Similitud del bosque aleatorio con el algoritmo del vecino más cercano".

Cómo lo estoy haciendo... Empecé y luego me rendí). El bosque también puede agruparse, sí.

En cuanto a la agrupación tal y como está, no está mal para separar los incrementos en 3 grupos, incluyendo los nuevos datos. Tiene sentido utilizar como características categóricas, esto es lo que quería hacer
 
Maxim Dmitrievsky:


¿Alguna pregunta?

 
¡¡¡¡¡HERMANOS DE VOZ!!!!! Ganaron......

¡¡¡¡¡ESTE ES EL GANADOR!!!!! ¡¡¡¡Hermanos!!!! ¡¡¡¡¡HORRAAAAAAAAAAAAA!!!!! Felices fiestas a todos.

Porque en cuanto olvidemos esta guerra empezará otra inmediatamente. ¡¡¡¡¡¡¡¡Recordémoslo siempre!!!!!!!! ¡¡¡¡¡¡¡VICTORIAAAAAAAAAAAAAAAA!!!!!!! Pew, pew (ese soy yo disparando mi imaginaria pistola TT y corriendo por la calle con mi uniforme de oficial)

 
¡Ves, estamos en el mismo lado de las barricadas! ¡Felices fiestas a todos!
 
mytarmailS:

¿Cuál es el resultado? ¿Qué tiene el akurasi?

10 modelos CatBoost con profundidad de árbol 6, parada de aprendizaje en 100 nuevos árboles que no mejoran los resultados, sentados en incrementos de 100.

Accuracy=70.72461682377491
Accuracy=70.86133697920415
Accuracy=70.77066992876159
Accuracy=70.64690220910988
Accuracy=70.78506152406995
Accuracy=70.88004605310499
Accuracy=70.69871195221991
Accuracy=70.59509246599985
Accuracy=70.58501834928403
Accuracy=70.71454270705908

Muestra de aprendizaje 80% 2018 y 2019, 20% de muestra para controlar la parada de aprendizaje. Muestra independiente enero-mayo 2020

Si se tortura la muestra con diferentes métodos de partición y se construyen más modelos creo que se pueden obtener 72.

Saldo de la clasificación


 
Aleksey Vyazmikin:

10 modelos CatBoost con profundidad de árbol 6, parada de aprendizaje en 100 nuevos árboles que no mejoran los resultados, sentados en incrementos de 100.

Muestra de formación 80% 2018 y 2019, 20% de muestra para controlar las paradas de formación. Muestra independiente enero-mayo 2020

Si se tortura la muestra con diferentes métodos de partición y se construyen más modelos creo que se pueden obtener 72.

Saldo de la clasificación


Bueno... agradable y plausible. También me gustaría ver el balance de la propia operación y un gráfico con las entradas.

Supongo que se trata de un conjunto de 10 modelos. ¿Cuál es la diferencia entre estos modelos?

Razón de la queja: