Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Información
12+ años
experiencia
0
productos
0
versiones demo
134
trabajos
0
señales
0
suscriptores
Programación profesional de cualquier complejidad para MT4, MT5, C#.
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Conjunto de agentes con mecanismos de atención (MASAAT)
Redes neuronales en el trading: Conjunto de agentes con mecanismos de atención (MASAAT)

Hoy le presentamos la estructura multiagente adaptativa de optimización de portafolios (MASAAT), que combina mecanismos de atención y análisis de series temporales. El MASAAT genera un conjunto de agentes que analizan series de precios y cambios direccionales, permitiendo identificar fluctuaciones sustanciales en los precios de los activos a diferentes niveles de detalle.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Modelo adaptativo multiagente (Final)
Redes neuronales en el trading: Modelo adaptativo multiagente (Final)

En el artículo anterior, nos familiarizamos con el framework MASA, un framework adaptativo multiagente que combina enfoques de aprendizaje por refuerzo y estrategias adaptativas para ofrecer un equilibrio armonioso entre rentabilidad y riesgo en condiciones de mercado turbulentas. Asimismo, construimos la funcionalidad de los agentes individuales de este framework. En este artículo continuaremos el trabajo empezado, llevándolo a su conclusión lógica.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Modelo adaptativo multiagente (MASA)
Redes neuronales en el trading: Modelo adaptativo multiagente (MASA)

Hoy les propongo familiarizarse con el MASA, un framework adaptativo multiagente que combina el aprendizaje por refuerzo y las estrategias adaptativas para ofrecer un equilibrio armonioso entre la rentabilidad y la gestión del riesgo en condiciones de mercado turbulentas.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Transformer parámetro-eficiente con atención segmentada (Final)
Redes neuronales en el trading: Transformer parámetro-eficiente con atención segmentada (Final)

En artículos anteriores, revisamos los aspectos teóricos del framework PSformer, que incluye dos importantes innovaciones en la arquitectura del Transformer clásico: el mecanismo de compartición de parámetros (PS) y la atención a los segmentos espaciotemporales (SegAtt). En este artículo, continuaremos el trabajo sobre la implementación de los enfoques propuestos mediante MQL5.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Transformer parámetro-eficiente con atención segmentada (PSformer)
Redes neuronales en el trading: Transformer parámetro-eficiente con atención segmentada (PSformer)

Hoy proponemos al lector un primer contacto con el nuevo framework PSformer, que adapta la arquitectura del Transformer vainilla para resolver problemas de previsión de series temporales multidimensionales. El framework se basa en dos innovaciones clave: el mecanismo de compartición de parámetros (PS) y la atención a los segmentos espaciotemporales (SegAtt).

youwei_qing
youwei_qing 2025.04.21
I noticed that the feedForward method with the second input parameter isn't working at all. Could this be an issue? virtual bool feedForward(CNeuronBaseOCL *NeuronOCL); virtual bool feedForward(CNeuronBaseOCL *NeuronOCL, CBufferFloat *SecondInput) { return feedForward(NeuronOCL); }
Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Mejora de la eficiencia del Transformer mediante la reducción de la nitidez (Final)
Redes neuronales en el trading: Mejora de la eficiencia del Transformer mediante la reducción de la nitidez (Final)

El SAMformer ofrece una solución a los problemas clave del Transformer en la previsión de series temporales a largo plazo, incluida la complejidad del entrenamiento y la escasa generalización a muestras pequeñas. Su arquitectura poco profunda y la optimización con control de nitidez garantizan que se eviten los malos mínimos locales. En este artículo, proseguiremos la aplicación de enfoques utilizando MQL5 y evaluaremos su valor práctico.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Mejora de la eficiencia del Transformer mediante la reducción de la nitidez (SAMformer)
Redes neuronales en el trading: Mejora de la eficiencia del Transformer mediante la reducción de la nitidez (SAMformer)

El entrenamiento de los modelos de Transformer requiere grandes cantidades de datos y suele ser difícil debido a la escasa capacidad de generalización de los modelos en muestras pequeñas. El framework SAMformer ayuda a resolver este problema evitando los mínimos locales malos, mejorando la eficacia de los modelos incluso con muestras de entrenamiento limitadas.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Optimización del Transformer para la previsión de series temporales (LSEAttention)
Redes neuronales en el trading: Optimización del Transformer para la previsión de series temporales (LSEAttention)

El framework LSEAttention ofrece formas de mejorar la arquitectura del Transformer, y se ha diseñado específicamente para la previsión a largo plazo de series temporales multidimensionales. Los enfoques propuestos por los autores del método resuelven los problemas de colapso de entropía e inestabilidad de aprendizaje característicos del Transformer vainilla.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Modelo hiperbólico de difusión latente (Final)
Redes neuronales en el trading: Modelo hiperbólico de difusión latente (Final)

El uso de procesos de difusión anisotrópica para codificar los datos de origen en un espacio latente hiperbólico, como se propone en el framework HypDIff, ayuda a preservar las características topológicas de la situación actual del mercado y mejora la calidad de su análisis. En el artículo anterior, empezamos a aplicar los enfoques propuestos usando herramientas MQL5. Hoy continuaremos el trabajo iniciado, llevándolo a su conclusión lógica.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Modelo hiperbólico de difusión latente (HypDiff)
Redes neuronales en el trading: Modelo hiperbólico de difusión latente (HypDiff)

El artículo estudiará formas de codificar los datos de origen en un espacio latente hiperbólico mediante procesos de difusión anisotrópica. Esto ayudará a preservar con mayor precisión las características topológicas de la situación actual del mercado y mejorará la calidad de su análisis.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Modelos de difusión direccional (DDM)
Redes neuronales en el trading: Modelos de difusión direccional (DDM)

Hoy proponemos al lector familiarizarse con los modelos de difusión direccional que explotan el ruido anisotrópico y direccional dependiente de los datos durante la difusión directa para capturar representaciones gráficas significativas.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Representación adaptativa de grafos (NAFS)
Redes neuronales en el trading: Representación adaptativa de grafos (NAFS)

Hoy le proponemos familiarizarse con el método Node-Adaptive Feature Smoothing (NAFS), que supone un enfoque no paramétrico para crear representaciones de nodos que no requiere entrenamiento de parámetros. El NAFS extrae las características de cada nodo considerando sus vecinos y luego combina adaptativamente dichas características para formar la representación final.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Transformador contrastivo de patrones (Final)
Redes neuronales en el trading: Transformador contrastivo de patrones (Final)

En el último artículo de nuestra serie, analizamos el framework Atom-Motif Contrastive Transformer (AMCT), que usa el aprendizaje contrastivo para identificar patrones clave a todos los niveles, desde los elementos básicos hasta las estructuras complejas. En este artículo, continuaremos con la implementación de los enfoques AMCT usando MQL5.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Transformador contrastivo de patrones
Redes neuronales en el trading: Transformador contrastivo de patrones

El transformador contrastivo de patrones analiza la situación del mercado tanto a nivel de velas individuales como de patrones completos, lo cual contribuye a mejorar la calidad de modelado de las tendencias del mercado, mientras que el uso del aprendizaje por contraste para emparejar las representaciones de velas y patrones conduce a la autorregulación y a la mejora de la precisión de la predicción.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Análisis de la situación del mercado usando el Transformador de patrones
Redes neuronales en el trading: Análisis de la situación del mercado usando el Transformador de patrones

A la hora de analizar la situación del mercado con nuestros modelos, el elemento clave es la vela. No obstante, sabemos desde hace tiempo que las velas pueden ayudar a predecir los movimientos futuros de los precios. Y en este artículo aprenderemos un método que nos permitirá integrar ambos enfoques.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Transformador con codificación relativa
Redes neuronales en el trading: Transformador con codificación relativa

El aprendizaje autosupervisado puede ser una forma eficaz de analizar grandes cantidades de datos no segmentados. El principal factor de éxito es la adaptación de los modelos a las particularidades de los mercados financieros, lo cual contribuye a mejorar el rendimiento de los métodos tradicionales. Este artículo le presentará un mecanismo alternativo de atención que permitirá considerar las dependencias y relaciones relativas entre los datos de origen.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Segmentación guiada (Final)
Redes neuronales en el trading: Segmentación guiada (Final)

Continuamos el trabajo iniciado en el artículo anterior sobre la construcción del marco RefMask3D usando herramientas MQL5. Este marco está diseñado para explorar de forma exhaustiva la interacción multimodal y analizar las características de una nube de puntos, seguida de la identificación del objeto de destino partiendo de la descripción proporcionada en lenguaje natural.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Segmentación guiada
Redes neuronales en el trading: Segmentación guiada

Hoy proponemos al lector familiarizarse con el método de análisis multimodal complejo de interacción y comprensión de características.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Segmentación de datos basada en expresiones de referencia
Redes neuronales en el trading: Segmentación de datos basada en expresiones de referencia

En el proceso de análisis de la situación del mercado, dividimos este en segmentos individuales, identificando las tendencias clave. Sin embargo, los métodos tradicionales de análisis suelen centrarse en un solo aspecto, lo cual limita nuestra percepción. En este artículo, presentaremos un método que nos permitirá seleccionar varios objetos, ofreciéndonos una comprensión más completa y variada de la situación.

Dmitriy Gizlyk
Ha publicado el artículo Redes neuronales en el trading: Enfoque sin máscara para la predicción del movimiento de precios
Redes neuronales en el trading: Enfoque sin máscara para la predicción del movimiento de precios

En este artículo nos familiarizaremos con el método Mask-Attention-Free Transformer (MAFT) y su aplicación en el ámbito del trading. A diferencia de los Transformers tradicionales, que requieren el enmascaramiento de los datos durante el procesamiento de la secuencia, el MAFT optimiza el proceso de atención eliminando la necesidad de enmascaramiento, lo que mejora significativamente la eficiencia computacional.