Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Informações
11+ anos
experiência
0
produtos
0
versão demo
134
trabalhos
0
sinais
0
assinantes
Programação profissional de qualquer complexidade para MT4, MT5, C#.
Dmitriy Gizlyk
Publicado o artigo Нейросети в трейдинге: Модели с использованием вейвлет-преобразовании и многозадачного внимания
Нейросети в трейдинге: Модели с использованием вейвлет-преобразовании и многозадачного внимания

Предлагаем познакомиться с фреймворком объединяющим вейвлет-преобразование и многозадачную модель Self-Attention, направленную на повышение отзывчивости и точности прогнозирования в условиях нестабильности рынка. Вейвлет-преобразование позволяет разложить доходность активов на высокие и низкие частоты, тщательно фиксируя долгосрочные рыночные тенденции и краткосрочные колебания.

Dmitriy Gizlyk
Publicado o artigo Нейросети в трейдинге: Гибридный торговый фреймворк с предиктивным кодированием (Окончание)
Нейросети в трейдинге: Гибридный торговый фреймворк с предиктивным кодированием (Окончание)

Продолжаем рассмотрение гибридной торговой системы StockFormer, которая объединяет предиктивное кодирование и алгоритмы обучения с подкреплением для анализа финансовых временных рядов. Основой системы служат три ветви Transformer с механизмом Diversified Multi-Head Attention (DMH-Attn), позволяющим выявлять сложные паттерны и взаимосвязи между активами. Ранее мы познакомились с теоретическими аспектами фреймворка и реализовали механизмы DMH-Attn, а сегодня поговорим об архитектуре моделей и их обучении.

1
Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Framework híbrido de negociação com codificação preditiva (StockFormer)
Redes neurais em trading: Framework híbrido de negociação com codificação preditiva (StockFormer)

Apresentamos o sistema de negociação híbrido StockFormer, que combina codificação preditiva e algoritmos de aprendizado por reforço (RL). O framework utiliza 3 ramos Transformer com mecanismo integrado Diversified Multi-Head Attention (DMH-Attn), que melhora o módulo de atenção padrão com um bloco Feed-Forward multicabeça, permitindo capturar padrões de séries temporais em diferentes subespaços.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Conjunto de agentes com uso de mecanismos de atenção (Conclusão)
Redes neurais em trading: Conjunto de agentes com uso de mecanismos de atenção (Conclusão)

No artigo anterior, exploramos o framework adaptativo multiagente MASAAT, que utiliza um conjunto de agentes para realizar análise cruzada de séries temporais multimodais em diferentes escalas de representação dos dados. Hoje, concluiremos o trabalho iniciado anteriormente, implementando as abordagens desse framework utilizando MQL5.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Conjunto de agentes com uso de mecanismos de atenção (MASAAT)
Redes neurais em trading: Conjunto de agentes com uso de mecanismos de atenção (MASAAT)

Apresentamos a estrutura adaptativa multiagente para otimização de portfólio financeiro (MASAAT), que integra mecanismos de atenção e análise de séries temporais. O MASAAT forma um conjunto de agentes que analisam séries de preços e mudanças direcionais, permitindo identificar variações significativas nos preços dos ativos em diferentes níveis de detalhamento.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Modelo adaptativo multiagente (Conclusão)
Redes neurais em trading: Modelo adaptativo multiagente (Conclusão)

No artigo anterior, conhecemos o framework adaptativo multiagente MASA, que combina abordagens de aprendizado por reforço com estratégias adaptativas, garantindo um equilíbrio harmônico entre lucratividade e riscos em condições turbulentas de mercado. Implementamos o funcional de agentes individuais deste framework, e neste artigo continuaremos o trabalho iniciado, levando-o à sua conclusão lógica.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Modelo adaptativo multiagente (MASA)
Redes neurais em trading: Modelo adaptativo multiagente (MASA)

Apresento o framework adaptativo multiagente MASA, que une aprendizado por reforço e estratégias adaptativas, oferecendo um equilíbrio harmonioso entre rentabilidade e controle de riscos em condições de mercado turbulentas.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Transformer eficiente em parâmetros com atenção segmentada (Conclusão)
Redes neurais em trading: Transformer eficiente em parâmetros com atenção segmentada (Conclusão)

No artigo anterior, abordamos os aspectos teóricos do framework PSformer, que incorpora duas inovações principais na arquitetura clássica do Transformer: o mecanismo de compartilhamento de parâmetros (Parameter Shared — PS) e a atenção a segmentos espaço-temporais (SegAtt). Neste artigo, damos continuidade à implementação dessas abordagens usando os recursos do MQL5.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Transformer parâmetro-eficiente com atenção segmentada (PSformer)
Redes neurais em trading: Transformer parâmetro-eficiente com atenção segmentada (PSformer)

Apresentamos o novo framework PSformer, que adapta a arquitetura do Transformer puro para resolver tarefas de previsão de séries temporais multivariadas. O framework é baseado em duas inovações principais: o mecanismo de compartilhamento de parâmetros (PS) e a atenção aos segmentos espaço-temporais (SegAtt).

youwei_qing
youwei_qing 2025.04.21
I noticed that the feedForward method with the second input parameter isn't working at all. Could this be an issue? virtual bool feedForward(CNeuronBaseOCL *NeuronOCL); virtual bool feedForward(CNeuronBaseOCL *NeuronOCL, CBufferFloat *SecondInput) { return feedForward(NeuronOCL); }
Dmitriy Gizlyk
Publicado o artigo Redes neurais e m trading: Aumento da eficiência do Transformer por meio da redução da nitidez (Conclusão)
Redes neurais e m trading: Aumento da eficiência do Transformer por meio da redução da nitidez (Conclusão)

O SAMformer propõe uma solução para os principais problemas do Transformer na previsão de séries temporais de longo prazo, incluindo a complexidade do treinamento e a fraca capacidade de generalização em amostras pequenas. Sua arquitetura rasa e a otimização com consideração da nitidez garantem o desvio de mínimos locais ruins. Neste artigo, continuaremos a implementação das abordagens utilizando MQL5 e avaliaremos seu valor prático.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Aumentando a eficiência do Transformer por meio da redução da nitidez (SAMformer)
Redes neurais em trading: Aumentando a eficiência do Transformer por meio da redução da nitidez (SAMformer)

O treinamento de modelos Transformer exige grandes volumes de dados e muitas vezes é dificultado pela fraca capacidade dos modelos de generalizar em amostras pequenas. O framework SAMformer ajuda a resolver esse problema ao evitar mínimos locais ruins. E aumenta a eficiência dos modelos mesmo em conjuntos de treinamento limitados.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Otimizando Transformer para previsão de séries temporais (LSEAttention)
Redes neurais em trading: Otimizando Transformer para previsão de séries temporais (LSEAttention)

O framework LSEAttention propõe caminhos para aprimorar a arquitetura Transformer, tendo sido desenvolvido especificamente para a previsão de séries temporais multivariadas de longo prazo. As abordagens sugeridas pelos autores do método permitem resolver problemas comuns no Transformer tradicional, como o colapso entrópico e a instabilidade no treinamento.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Modelo hiperbólico de difusão latente (Conclusão)
Redes neurais em trading: Modelo hiperbólico de difusão latente (Conclusão)

A aplicação de processos de difusão anisotrópicos para codificação dos dados brutos no espaço latente hiperbólico, conforme proposto no framework HypDiff, contribui para a preservação das características topológicas da situação atual do mercado e melhora a qualidade de sua análise. No artigo anterior, iniciamos a implementação das abordagens propostas usando MQL5. Hoje, continuaremos esse trabalho iniciado, levando-o até sua conclusão lógica.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Modelo hiperbólico de difusão latente (HypDiff)
Redes neurais em trading: Modelo hiperbólico de difusão latente (HypDiff)

Esse artigo analisa formas de codificar dados brutos no espaço latente hiperbólico por meio de processos de difusão anisotrópicos. Isso ajuda a preservar com mais precisão as características topológicas da situação atual do mercado e melhora a qualidade de sua análise.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Modelos de difusão direcionada (DDM)
Redes neurais em trading: Modelos de difusão direcionada (DDM)

Apresentamos os modelos de difusão direcionada, que utilizam ruídos anisotrópicos e direcionais, dependentes dos dados, no processo de propagação para frente, para capturar representações de grafos significativas.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Representação adaptativa de grafos (NAFS)
Redes neurais em trading: Representação adaptativa de grafos (NAFS)

Apresentamos o método NAFS (Node-Adaptive Feature Smoothing), uma abordagem não paramétrica para criar representações de nós que não requer o treinamento de parâmetros. O NAFS extrai as características de cada nó considerando seus vizinhos e, então, combina essas características de forma adaptativa para formar a representação final.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Transformer contrativo de padrões (Conclusão)
Redes neurais em trading: Transformer contrativo de padrões (Conclusão)

No último artigo da série, analisamos o framework Atom-Motif Contrastive Transformer (AMCT), que utiliza aprendizado contrastivo para identificar padrões-chave em todos os níveis, desde os elementos básicos até estruturas complexas. Neste artigo, continuamos a implementar as abordagens do AMCT com recursos do MQL5.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Transformer contrastivo de padrões
Redes neurais em trading: Transformer contrastivo de padrões

O Transformer contrastivo de padrões realiza a análise de situações de mercado, tanto no nível de velas individuais quanto no de padrões completos. Isso contribui para aprimorar a modelagem das tendências de mercado. Além disso, o uso do aprendizado contrastivo para alinhar as representações das velas e dos padrões leva à autorregulação e ao aumento da precisão das previsões.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Análise da situação do mercado usando o transformador de padrões
Redes neurais em trading: Análise da situação do mercado usando o transformador de padrões

Ao analisarmos a situação do mercado com nossos modelos, o elemento-chave é a vela. No entanto, sabe-se há muito tempo que os padrões de velas podem ajudar a prever movimentos futuros de preço. Neste artigo, apresentaremos um método que permite integrar essas duas abordagens.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Transformer com codificação relativa
Redes neurais em trading: Transformer com codificação relativa

O aprendizado autossupervisionado pode ser uma forma eficaz de analisar grandes volumes de dados brutos não rotulados. O principal fator de sucesso é a adaptação dos modelos às particularidades dos mercados financeiros, o que melhora o desempenho dos métodos tradicionais. Este artigo apresentará um mecanismo alternativo de atenção, que permite levar em conta dependências relativas e inter-relações entre os dados brutos.