Discusión sobre el artículo "Redes neuronales: así de sencillo (Parte 93): Predicción adaptativa en los ámbitos de la frecuencia y el tiempo (Parte final)"
Dmitry ¡Hola!
¿Cómo entrenas y repones la base de datos de ejemplos para un año de historia? Tengo un problema con la reposición de nuevos ejemplos en el archivo bd en sus Asesores Expertos de los últimos artículos (donde se utiliza un año de historia). La cosa es que cuando este archivo alcanza el tamaño de 2 GB, al parecer comienza a ser guardado torcido y luego el modelo de formación Asesor de Expertos no puede leerlo y da un error. O el fichero bd empieza a bajar bruscamente de tamaño, con cada nueva adición de ejemplos hasta varios megabytes y entonces el asesor de entrenamiento sigue dando error. Este problema ocurre hasta 150 trayectorias si se toma la historia durante un año y alrededor de 250 si se toma la historia durante 7 meses. El tamaño del archivo bd crece muy rápido. Por ejemplo, 18 trayectorias pesan casi 500 Mb. 30 trayectorias pesan 700 MB.
En consecuencia, para entrenar tenemos que borrar este archivo con un conjunto de 230 trayectorias a lo largo de 7 meses y crearlo de nuevo con un Asesor Experto preentrenado. Pero en este modo, el mecanismo de actualización de trayectorias al reponer la base de datos no funciona. Supongo que esto se debe a la limitación de 4 GB de RAM para un hilo en MT5. En algún lugar de la ayuda escribieron sobre ello.
Lo interesante es que en artículos anteriores (donde el historial era de 7 meses, y la base para 500 trayectorias pesaba alrededor de 1 GB) tal problema no se presentaba. No estoy limitado por los recursos del PC, ya que la RAM es de más de 32 GB y la memoria de la tarjeta de vídeo es suficiente.
Dmitry, ¿cómo enseñas teniendo en cuenta este punto o tal vez configuras MT5 de antemano?
Yo uso los archivos de los articulos sin ninguna modificacion.
En consecuencia, para entrenar tenemos que borrar este archivo con un conjunto de 230 trayectorias a lo largo de 7 meses y crearlo de nuevo con un Asesor Experto preentrenado. Pero en este modo, el mecanismo de actualización de trayectorias al reponer la base de datos no funciona. Supongo que esto se debe a la limitación de 4 GB de RAM para un hilo en MT5. En algún lugar de la ayuda escribieron al respecto.
Lo interesante es que en artículos anteriores (donde el historial era de 7 meses, y la base para 500 trayectorias pesaba alrededor de 1 GB) tal problema no se presentaba. No estoy limitado por los recursos del PC, ya que la RAM es de más de 32 GB y la tarjeta de vídeo tiene suficiente memoria.
Dmitry, ¿cómo enseñas con esto en mente o tal vez has configurado MT5 de antemano?
Yo uso los archivos de los articulos sin ninguna modificacion.
Victor,
no se que responderte. Yo trabajo con archivos más grandes.

Hola, leer este artículo es interesante . entender un poco, irá a través de una vez más después de leer el documento original.
Me he encontrado con este documento https://www.mdpi.com/2076-3417/14/9/3797#
afirma que archivaron 94% en la clasificación de imágenes bitcoin, ¿es realmente posible?
- www.mdpi.com
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Usted acepta la política del sitio web y las condiciones de uso
Artículo publicado Redes neuronales: así de sencillo (Parte 93): Predicción adaptativa en los ámbitos de la frecuencia y el tiempo (Parte final):
En el artículo anterior, nos familiarizamos con el algoritmo ATFNet, que es un conjunto de 2 modelos de predicción de series temporales. Uno de ellos trabaja en el ámbito temporal y construye valores predictivos de las series temporales estudiadas basándose en el análisis de las amplitudes de las señales. El segundo modelo trabaja con las características frecuenciales de la serie temporal analizada y registra sus dependencias globales, su periodicidad y su espectro. La fusión adaptativa de dos predicciones independientes, según el autor del método, genera resultados impresionantes.
La característica clave del bloque de frecuencia F es una construcción completa del algoritmo utilizando las matemáticas de números complejos. Para cumplir este requisito, en el artículo anterior construimos la clase CNeuronComplexMLMHAttention. Repite por completo los algoritmos del Transformer codificador multicapa con elementos de Self-Attention multicabezal. La clase de atención integrada que construimos es la base del bloque F. En este artículo, seguiremos aplicando los planteamientos propuestos por los autores del método ATFNet.
Autor: Dmitriy Gizlyk