Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 428

 
Maxim Dmitrievsky:

Ya veo, creo que aquí nadie ha comparado en la práctica :) buscaré información, para no engañarme si resulta que el diplerning no da ventaja sobre el andamio. Y como la parte que lo compone es un MLP, es muy posible que no lo haga...

Por cierto, cualquier cosa con más de 2 capas se llama diplerning, el MLP con 2 capas ocultas también es diplerning. Me refería a las redes profundas, que Vladimir describe en el artículo del enlace anterior.

TOTALMENTE EQUIVOCADO. ¿De dónde saca esta información?

Aunque dicen que los predictores son lo más importante porque los modelos funcionan igual... pero eso es la teoría, en la práctica resulta que la selección del modelo también es muy importante, por ejemplo el compromiso entre la velocidad y la calidad, porque el NS tiende a ser largo...

DNN Es muy rápido, probado.

Quiero conexión directa al servidor P desdeMT5 o conexión directa al servidor P desde MT5, pero es mejor la conexión directa. Necesitas 1 vez para reescribir con C++ la red neuronal que necesitas en mql, y eso es todo.

¿Cómo se comprueba? A mí me funciona.

Ah, se me olvidó añadir IMHO

IMHO basado en la práctica

Buena suerte

 
Vladimir Perervenko:

Elaprendizaje profundo (también conocido como aprendizaje estructurado profundo o aprendizaje jerárquico) es la aplicación a tareas de aprendizaje de redes neuronales artificiales (RNA) que contienen más de una capa oculta. El aprendizaje profundo forma parte de una familia más amplia de métodos de aprendizaje automático basados en el aprendizaje de representaciones de datos, en contraposición a los algoritmos de tareas específicas. El aprendizaje puede ser supervisado, parcialmente supervisado o no supervisado.


Sobre la diplomática con autocodificadores, sí, es rápida, pero no llegué a ellos todavía, por lo que había una pregunta lógica - ¿hay alguna ventaja sobre RF

p.d. ¿Funciona también en el optimizador? ¿O en la nube?

https://en.wikipedia.org/wiki/Deep_learning

 
Maxim Dmitrievsky:

Elaprendizaje profundo (también conocido como aprendizaje estructurado profundo o aprendizaje jerárquico) es la aplicación a tareas de aprendizaje de redes neuronales artificiales (RNA) que contienen más de una capa oculta. El aprendizaje profundo forma parte de una familia más amplia de métodos de aprendizaje automático basados en el aprendizaje de representaciones de datos, en contraposición a los algoritmos de tareas específicas. El aprendizaje puede ser supervisado, parcialmente supervisado o no supervisado.


Sobre el diplinking con autocodificadores sí, rápido, pero aún no he llegado a ellos, así que era una pregunta lógica - ¿hay alguna ventaja sobre la RF

p.d. ¿Vuela en el optimizador? ¿Y en la nube?

https://en.wikipedia.org/wiki/Deep_learning

1. ¿Dónde ha encontrado esta definición? ¿Hablas en serio? Encontraré enlaces a fuentes serias cuando tenga tiempo.

2. La principal ventaja de la DNN con aprendizaje previo es el aprendizaje por transferencia. Mucho más rápido, más preciso y ... Utiliza el paquete darch.

3. Cualquier optimización debe hacerse en R. Más rápido, transparente y flexible.

Buena suerte

 
Vladimir Perervenko:

1. ¿Dónde ha encontrado esta definición? ¿Hablas en serio? Encontraré enlaces a fuentes serias cuando tenga tiempo.

2. La principal ventaja de la DNN con aprendizaje previo es el aprendizaje por transferencia. Mucho más rápido, más preciso y ... Utiliza el paquete darch.

3. Cualquier optimización debe hacerse en R. Más rápido, transparente y flexible.

Buena suerte

Al final de esta lección entenderás cómo funciona un modelo simple de aprendizaje profundo llamado perceptrón multicapa (MLP) y aprenderás a construirlo en Keras, obteniendo un grado decente de precisión en MNIST. En la próxima lección desglosaremos los métodos para problemas de clasificación de imágenes más complejos (como CIFAR-10).
Neuronas (artificiales)

Aunque el término "aprendizaje profundo" puede entenderse en un sentido más amplio, en la mayoría de los casos se aplica en el campo de las redes neuronales(artificiales).


https://habrahabr.ru/company/wunderfund/blog/314242/

y aquí


Puede que todos estén mintiendo, no lo sé.)

En mi opinión, por supuesto.

Глубокое обучение для новичков: распознаем рукописные цифры
Глубокое обучение для новичков: распознаем рукописные цифры
  • habrahabr.ru
Представляем первую статью в серии, задуманной, чтобы помочь быстро разобраться в технологии глубокого обучения; мы будем двигаться от базовых принципов к нетривиальным особенностям с целью получить достойную производительность на двух наборах данных: MNIST (классификация рукописных цифр) и CIFAR-10 (классификация небольших изображений по...
 
¿Para qué sirven los predictores? Una serie temporal es un predictor͵ Sólo que el NS necesita profundizar un poco más͵
(Desde el teléfono móvil)
 
Yuriy Asaulenko:
¿Para qué sirven los predictores? Una serie temporal es un predictor.
(Desde un teléfono móvil)

Se olvidaron de poner la c) :))
 
Maxim Dmitrievsky:

Olvidé poner la c) :))
¿Y quién fue citado?)
 
Yuriy Asaulenko:
¿A quién has citado?)
Bueno, él mismo. Una especie de insignia de autoría )
 
Maxim Dmitrievsky:
Al final de esta lección entenderás el funcionamiento de un modelo simple de aprendizaje profundo llamado perceptrón multicapa (MLP) y aprenderás a construirlo en Keras, obteniendo un grado decente de precisión en MNIST. En la próxima lección desglosaremos los métodos para tareas de clasificación de imágenes más complejas (como CIFAR-10).
Neuronas (artificiales)

Aunque el término "aprendizaje profundo" puede entenderse en un sentido más amplio, en la mayoría de los casos se aplica en el ámbito de las redes neuronales (artificiales).


https://habrahabr.ru/company/wunderfund/blog/314242/

Y he aquí.


Tal vez todos mientan, no me consta )

En mi opinión, por supuesto.

No, no lo hacen. A continuación una explicación (de un artículo que nunca voy a terminar :(

Introducción

Principales áreas de investigación y aplicaciones

Actualmente, en la investigación y aplicación de las redes neuronales profundas (hablamos sólo de las redes neuronales multicapa de enlace completo - MLP) han surgido dos corrientes principales que difieren en el enfoque de la inicialización de los pesos de las neuronas en las capas ocultas.

Primero: Es bien sabido que las redes neuronales son extremadamente sensibles a la forma de inicialización de las neuronas en las capas ocultas, especialmente cuando el número de capas ocultas es superior a 3. El impulso inicial de este problema fue propuesto por el profesor G. Hynton. La idea era que los pesos de las neuronas en las capas ocultas de la red neuronal podían ser inicializados por los pesos obtenidos del aprendizaje no supervisado de redes asociativas automáticas consistentes en RBM (máquina de Boltzmann restringida) o AE (codificador automático). Estos RBM apilados (SRBM) y AE apilados (SAE) se entrenan de una manera determinada en un gran conjunto de datos no etiquetados. El objetivo de este entrenamiento es identificar estructuras ocultas (representaciones, imágenes) y dependencias en los datos. La inicialización de las neuronas del MLP con los pesos obtenidos durante el preentrenamiento sitúa al MLP en el espacio de soluciones más cercano al óptimo. Esto hace posible que el posterior ajuste fino (entrenamiento) de los MLP aplique una menor cantidad de datos marcados con menos épocas de entrenamiento. Para muchas aplicaciones prácticas (especialmente en el procesamiento de "big data"), estas son ventajas críticas.

Segundo: Un grupo de científicos (Benjio et al.) han centrado sus principales esfuerzos en desarrollar e investigar métodos específicos para la inicialización de las neuronas ocultas, funciones de activación especiales, estabilización y métodos de aprendizaje. El éxito en este sentido se debe principalmente al rápido desarrollo de las redes neuronales convolucionales y recurrentes (DCNN, RNN), que han mostrado resultados sorprendentes en el reconocimiento de imágenes, el análisis y la clasificación de textos y la traducción del habla en directo de un idioma a otro. Las ideas y métodos desarrollados para estas redes neuronales se han aplicado a las MLP con igual éxito.

Hoy en día, ambas direcciones se utilizan activamente en la práctica. Los experimentos comparativos [ ] de los dos enfoques no han revelado ventajas significativas de uno sobre el otro, pero una cosa está clara. Las redes neuronales con preentrenamiento requieren muchos menos ejemplos para el entrenamiento y recursos computacionales, pero dan casi los mismos resultados. Para algunos campos, esta es una ventaja muy importante.

Buena suerte

 
Vladimir Perervenko:

Hoy en día, ambos enfoques se utilizan activamente en la práctica. Los experimentos comparativos [ ] de los dos enfoques no revelan ventajas significativas de uno sobre el otro, pero hay una ventaja. Las redes neuronales con preentrenamiento requieren muchos menos ejemplos de entrenamiento y recursos computacionales con resultados casi iguales. Para algunos campos, esta es una ventaja muy importante.

Buena suerte

Últimamente he vuelto a recurrir a GARCH, con el que ya estaba familiarizado. Lo que me ha sorprendido enormemente tras varios años de fascinación por el aprendizaje automático es el enorme número de publicaciones sobre la aplicación de GARCH a las series temporales financieras, incluidas las divisas.


¿Tienen algo similar para las redes profundas?

Razón de la queja: