Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 514

 
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
  • 2017.07.18
  • Оксана Мамчуева
  • www.searchengines.ru
Яндекс разработал новый метод машинного обучения CatBoost. Он позволяет эффективно обучать модели на разнородных данных — таких как местонахождение пользователя, история операций и тип устройства. Библиотека машинного обучения CatBoost выложена в открытый доступ, ее могут использовать все желающие. Для работы с CatBoost достаточно установить...
 

El paquete R está ahí, genial.


2)
install.packages('devtools')
devtools::install_github('catboost/catboost', subdir = 'catboost/R-package')

 

Por qué R, no me gusta... línea de comandos o dll :)

 

Hice un predictor de regresión de red neural, muestra un histograma del modelo de predicción de precio actual para n barras por delante (15 en este caso), entrena para 5000 barras y reentrena cada 500 barras. Se ve bien a primera vista, pero por supuesto no funciona tan rápido como me gustaría porque en realidad quiero entrenar a varios de ellos :)


Y así, si se observan las actas, la variación es bastante pequeña, por supuesto puede ser alta en las emisiones extremas, pero en promedio en el rango de 100 puntos (5 dígitos).

He rodeado los más sabrosos con flechas

 
Maxim Dmitrievsky:

No funciona tan rápido como me gustaría,

¿En ALGLIB?

 
elibrarius:

¿En ALGLIB?


por supuesto que se puede retorcer con NS externo o andamiaje, por ejemplo CatBoost en gpu, pero soy demasiado perezoso y no tengo tiempo para

todo se reduce a la velocidad, cuanto más alto sea, más difícil será ejecutarlo en el probador

 

ALGLIB es un terrible freno para el aprendizaje.

Sirvió 240-50-1 neto en ALGLIB - esperó 2 días, no esperó y lo cerró.

Entrené la red 70-5-1 en media hora. Y nnet de R se entrenó durante menos de un minuto con los mismos datos. Ahora estoy tratando de resolverlo con R.

 
elibrarius:

ALGLIB es un terrible freno para el aprendizaje.

Sirvió 240-50-1 neto en ALGLIB - esperó 2 días, no esperó y lo cerró.

Entrené la red 70-5-1 en media hora. Y nnet de R se entrenó durante menos de un minuto con los mismos datos. Así que ahora estoy sentado aquí tratando con R.


RF más o menos, 50 entradas de 5000, 100 árboles, 25 segundos de media (en el portátil). Pero para la optimización también es muy largo. NS es realmente lento, pero es MLP normal, no hay que esperar otra cosa de él.

Lo necesito para aprender todo en un segundo como máximo, ¿dónde conseguirlo? )

 

Una vez más estoy convencido de que el andamiaje no puede extrapolarse, por muchas exclamaciones que haya aquí de que no puede:

por encima de la línea roja 150 precios de formación (entradas y salidas). Después, el mercado empezó a caer, aparecieron nuevos precios, que no estaban en la muestra de entrenamiento (no fueron alimentados a la salida). El Bosque comenzó a producir como previsión el precio más bajo que conocían en el momento del entrenamiento, es decir, 1,17320, que corresponde a la línea horizontal. Esto hizo que el histograma de los residuos también se sesgara.

Los bosques NO saben EXTRAPLORAR. Todos los inteligentes quedan para el segundo año para volver a aprender las matemáticas.


  • al igual que los árboles de decisión, el algoritmo es totalmente incapaz de extrapolar
http://alglib.sources.ru/dataanalysis/decisionforest.php
 

Los precios sin ninguna conversión no se introducen en el modelo.

El andamiaje para la extrapolación toma el valor conocido más cercano. La neurona o regla en extrapolación calculará algo según las fórmulas internas. Pero en realidad todos estos modelos se fusionarán en esta situación, por lo que no hay diferencia.
Razón de la queja: