Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 601

 
Vladimir Perervenko:

Este es un enlace a la página web de Hubr. El enlace de la biblioteca es https://keras.rstudio.com/index.html.

Leer fuentes primarias.

Buena suerte

Sí, ya veo -Keras es una API de redes neur onales de alto nivel desarrollada con el objetivo de permitir la experimentación rápida. R? como se esperaba, la interfaz.

Gracias.

Las fuentes están aquí -https://keras.io/ y en GitHub -https://github.com/keras-team/keras

Keras Documentation
Keras Documentation
  • keras.io
Keras is a high-level neural networks API, written in Python and capable of running on top of TensorFlow, CNTK, or Theano. It was developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research. Use Keras if you need a deep learning library that: Allows...
 
Vizard_:

En la primera mitad de 2016 el mundo oyó hablar de muchos avances en el campo de las redes neuronales: sus algoritmos fueron demostrados por
Google (red de jugadores de AlphaGo Go), Microsoft (una serie de servicios de identificación de imágenes), las startups MSQRD, Prisma y otras...
Pocos lo saben, pero otros se estaban desarrollando en paralelo. Las mejores mentes del planeta se han unido para crear un sistema único,
que ya podría llamarse IA. El producto final está hecho por "los programadores de Dios", funciona fácilmente con cualquier cantidad de datos,
en cualquier tipo de hardware, incluso en un pequeño trozo de papel. En resumen - ¡Mishan, atrapa! Pero no te metas en líos...))


Vamos, espero que no sea un virus desagradable... No sé si le pusiste caca. Una vez conocí a un usuario apodado Klot. Solía decir que podía "programar el infierno de un hombre calvo" y era realmente bueno en la programación....

No he podido ni mirarlo, porque tengo las hojas acolchadas de 2003... Supongo que no estaba destinado a ser :-(

[Eliminado]  

es una especie de "brecha que siempre te acompaña"

 
Mihail Marchukajtes:

No pude ni mirarlo, porque tengo los folletos acolchados de 2003...

Es el momento de rockear.

excel 03 es duro.

[Eliminado]  
Mihail Marchukajtes:

Vamos, espero que no sea un virus desagradable... No sé si le pusiste caca. Una vez conocí a un usuario apodado Klot. Solía decir: "Sabe programar un montón de cosas" y era muy bueno programando....

No he podido ni mirarlo, porque tengo las hojas acolchadas de 2003... Supongo que no vale la pena :-(


google shits, ¿no?

pero es una especie de perseptrón hecho a sí mismo :)

 
No se puede:

A veces sospecho que usted es el culpable de la muerte de Reshetov, perdón por hablar, no pude resistirme.


Me lo pido en ..... Por supuesto que planté algunas variantes en su desarrollo, pero creo que como máximo el 10% de mis ideas fueron aprobadas por él y probablemente exageré. El hecho de que en el MOE haya dos áreas de profesionales son los desarrolladores (programadores) y los ingenieros (usuarios). Adivina en qué categoría estoy????

 

Así que estoy pensando en tomar la formación en java y seguir adelante. Siento que no entiendo una serie de puntos clave en las peculiaridades de la lengua y me ofrecieron aprenderlos por 150 mil durante un año en la universidad de correos.ru..... Así es. Se detuvo en una de las últimas etapas, la selección de predictores. Calcular su importancia y algún tipo de selección. Porque hay dos piezas endurecidas en el código. Pero créanme, un experto en el propio proceso de aprendizaje, análisis del modelo resultante y su selección (que es lo que saben hacer los ingenieros). Puedo dar la siguiente valoración.

1.JPredicción tiene la capacidad de generalizar. No tanto como me gustaría, pero de 10 modelos obtenidos el 50-80% serán modelos generalizados, el resto serán ciruelas. Se generalizarán de forma diferente y un modelo con buena curva de aprendizaje puede ganar menos que un modelo con peor curva de aprendizaje en el futuro.

2. El problema de la selección de predictores es que si le doy 100 construye un modelo de máximo 9 y lo hace durante 3 días en 3 núcleos. Lógicamente, cuantas más entradas, más paramétrico es el modelo y más factores tiene en cuenta, pero en la práctica, cuanto más sencillo es el modelo, mejor funciona en el futuro que un modelo con el mismo resultado de entrenamiento pero con más entradas. Considero los modelos con 5 entradas y superiores, porque con menos número de entradas tiene efecto cuando el modelo tiene suerte durante algún tiempo y luego no, y por regla general este tiempo no es considerable, porque el modelo es demasiado pequeño.

Acabo de probar todo con los datos e incluso enseñado JPrediction ferozmente volver a entrenar cuando tomo los mismos datos, hacer que volver a entrenar y el resultado es la formación aumenta bruscamente dentro de 20%. Es decir, el 75% se convirtió en el 90% y al mismo tiempo estaba perdiendo muchos datos en el OOS.

Ahora empiezan a aparecer servicios para MO, yo uso AWS. Hay una sección sobre aprendizaje automático y construcción de modelos. Como resultado, construyo allí y mi propio modelo a partir de un mismo archivo. En AWS, la calidad del modelo entrenado es muchas veces peor, pero se tarda 5 minutos en construirlo. Y no hay tantos ajustes.

Tengo muchas ganas de ejecutar dos archivos idénticos pero en sistemas IIM diferentes y comparar el resultado en forma de sección comercializada del OOS, pero lamentablemente no hay especialistas en este foro que tengan sistemas IIM completos. Todo el mundo aquí sigue buscando .... alas...... ¡¡¡¡Arlequín!!!! Has encontrado???? Su AI.......

[Eliminado]  

Los que leen/estudian el libro

google colab tiene soporte para GPU

y TensorFlow ya está instalado.

Lo único complicado es trabajar con archivos vía api y google drive


Prueba de rendimiento de la tarjeta de vídeo:

Tiempo (s) de convolución del filtro 32x7x7x3 sobre imágenes aleatorias 100x100x100x3 (lote x altura x anchura x canal). Suma de diez ejecuciones. CPU (s): 9,76737689972 GPU (s): 0,16198209479Velocidad de la GPU sobre la CPU: 60x

No tengo ni idea de cómo se hace, pero todo funciona :)

y aquí R, por supuesto, se metió en el medio de la...l

 
Maxim Dmitrievsky:

Los que leen/investigan el libro

google colab tiene soporte para su GPU

y TensorFlow ya instalados

En resumen, no es necesario instalar nada en absoluto, sólo entrar a través de su navegador y trabajar. La única pega es trabajar con archivos a través de la api y google disk


Prueba de rendimiento de mi tarjeta de vídeo:

Tiempo (s) de convolución del filtro 32x7x7x3 sobre imágenes aleatorias 100x100x100x3 (lote x altura x anchura x canal). Suma de diez ejecuciones. CPU (s): 9,76737689972 GPU (s): 0,16198209479Velocidad de la GPU sobre la CPU: 60x

No tengo ni idea de cómo se implementa, pero funciona :)


Eso es útil. ¿Qué clase de laboratorio es este?

[Eliminado]  
Mihail Marchukajtes:

Eso sí que es útil. ¿Qué tipo de laboratorio es este?


Vamos, Mikhail.

pero es una máquina virtual y usan su propia gpuha)