Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • Informações
11+ anos
experiência
0
produtos
0
versão demo
134
trabalhos
0
sinais
0
assinantes
Programação profissional de qualquer complexidade para MT4, MT5, C#.
Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Modelo de dupla atenção para previsão de tendências
Redes neurais em trading: Modelo de dupla atenção para previsão de tendências

Damos continuidade à discussão sobre o uso da representação linear por partes de séries temporais, iniciada no artigo anterior. Hoje, falaremos sobre a combinação desse método com outras abordagens de análise de séries temporais para melhorar a qualidade da previsão das tendências dos movimentos de preços.

Dmitriy Gizlyk
Publicado o artigo Redes neurais em trading: Representação linear por partes de séries temporais
Redes neurais em trading: Representação linear por partes de séries temporais

Este artigo é um pouco diferente dos trabalhos anteriores desta série. Nele, discutiremos uma representação alternativa de séries temporais. A representação linear por partes de séries temporais é um método de aproximação de séries temporais usando funções lineares em pequenos intervalos.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 97): Treinamento do modelo usando o MSFformer
Redes neurais de maneira fácil (Parte 97): Treinamento do modelo usando o MSFformer

Ao estudar diferentes arquiteturas de construção de modelos, temos dado pouca atenção ao processo de treinamento dos modelos. Neste artigo, tentarei preencher essa lacuna.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 96): Extração multinível de características (MSFformer)
Redes neurais de maneira fácil (Parte 96): Extração multinível de características (MSFformer)

A extração e integração eficazes de dependências de longo prazo e características de curto prazo continuam sendo uma tarefa importante na análise de séries temporais. Compreendê-las e integrá-las corretamente é necessário para criar modelos preditivos precisos e confiáveis.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 95): Redução do consumo de memória em modelos Transformer
Redes neurais de maneira fácil (Parte 95): Redução do consumo de memória em modelos Transformer

Os modelos baseados na arquitetura Transformer demonstram alta eficiência, mas seu uso é dificultado pelos altos custos de recursos, tanto na fase de treinamento quanto durante a utilização prática. Neste artigo, proponho conhecer algoritmos que permitem reduzir o uso de memória por esses modelos.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 94): Otimização da sequência de dados iniciais
Redes neurais de maneira fácil (Parte 94): Otimização da sequência de dados iniciais

Ao trabalhar com séries temporais, geralmente usamos os dados na sequência histórica. Mas isso é realmente o mais eficiente? Há quem acredite que modificar a sequência dos dados iniciais pode aumentar a eficácia dos modelos de aprendizado. Neste artigo, vou apresentar um desses métodos.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 93): Previsão adaptativa nas áreas de frequência e tempo (Conclusão)
Redes neurais de maneira fácil (Parte 93): Previsão adaptativa nas áreas de frequência e tempo (Conclusão)

Neste artigo, continuamos a implementação das abordagens do ATFNet — um modelo que adapta e combina os resultados de 2 blocos (frequencial e temporal) de previsão de séries temporais.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 92): Previsão adaptativa nas áreas de frequência e tempo
Redes neurais de maneira fácil (Parte 92): Previsão adaptativa nas áreas de frequência e tempo

Os autores do método FreDF confirmaram experimentalmente a vantagem da previsão combinada nas áreas de frequência e tempo. No entanto, o uso de um hiperparâmetro de ponderação não é ideal para séries temporais não estacionárias. Neste artigo, proponho que você conheça um método de combinação adaptativa de previsões nas áreas de frequência e tempo.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 91): previsão na área de frequência (FreDF)
Redes neurais de maneira fácil (Parte 91): previsão na área de frequência (FreDF)

Continuamos a explorar a análise e previsão de séries temporais na área de frequência. E nesta matéria, apresentaremos um novo método de previsão nessa área, que pode ser adicionado a muitos dos algoritmos que já estudamos anteriormente.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 90): Interpolação Frequencial de Séries Temporais (FITS)
Redes neurais de maneira fácil (Parte 90): Interpolação Frequencial de Séries Temporais (FITS)

Ao estudarmos o método FEDformer, abrimos uma porta para a área de representação de séries temporais no domínio da frequência. No novo artigo, continuaremos o tema iniciado, e analisaremos um método que permite não apenas conduzir uma análise, mas também prever estados futuros no domínio frequencial.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 89): Transformador de decomposição por frequência do sinal (FEDformer)
Redes neurais de maneira fácil (Parte 89): Transformador de decomposição por frequência do sinal (FEDformer)

Todos os modelos que analisamos anteriormente examinam o estado do ambiente na forma de uma sequência temporal. No entanto, a mesma série temporal pode ser representada por suas características de frequência. Neste artigo, proponho que você conheça um algoritmo que utiliza as características de frequência da sequência temporal para prever estados futuros.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 88): Codificador denso de séries temporais (TiDE)
Redes neurais de maneira fácil (Parte 88): Codificador denso de séries temporais (TiDE)

O desejo de obter previsões mais precisas leva os pesquisadores a complicar os modelos de previsão. Isso, por sua vez, aumenta os custos de treinamento e manutenção do modelo. Mas será que isso sempre é justificado? Neste artigo, proponho que você conheça um algoritmo que utiliza a simplicidade e a velocidade dos modelos lineares, e demonstra resultados no nível dos melhores com uma arquitetura mais complexa.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 87): Segmentação de séries temporais
Redes neurais de maneira fácil (Parte 87): Segmentação de séries temporais

A previsão desempenha um papel importante na análise de séries temporais. No novo artigo, falaremos sobre as vantagens da segmentação de séries temporais.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 86): Transformador em forma de U
Redes neurais de maneira fácil (Parte 86): Transformador em forma de U

Continuamos a analisar algoritmos de previsão de séries temporais. E neste artigo, proponho que você conheça o método U-shaped Transformer.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 85): previsão multidimensional de séries temporais
Redes neurais de maneira fácil (Parte 85): previsão multidimensional de séries temporais

Neste artigo, quero apresentar a vocês um novo método abrangente de previsão de séries temporais, que combina harmoniosamente as vantagens dos modelos lineares e dos transformers.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 84): normalização reversível (RevIN)
Redes neurais de maneira fácil (Parte 84): normalização reversível (RevIN)

Há muito já aprendemos que o pré-processamento dos dados brutos desempenha um grande papel na estabilidade do treinamento do modelo. E, para o processamento online de dados "brutos", frequentemente usamos a camada de normalização em lote. No entanto, às vezes surge a necessidade de um procedimento inverso. Um dos possíveis métodos para resolver tais tarefas é discutido neste artigo.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 83): Transformador espaciotemporal de atenção contínua (Conformer)
Redes neurais de maneira fácil (Parte 83): Transformador espaciotemporal de atenção contínua (Conformer)

O algoritmo Conformer, apresentado aqui, foi desenvolvido para prever o tempo, que, em termos de variabilidade e imprevisibilidade, pode ser comparado aos mercados financeiros. O Conformer é um método complexo que combina as vantagens dos modelos de atenção e das equações diferenciais ordinárias.

Look Mode
Look Mode 2024.03.30
Здравствуйте, как эти файлы попробовать (тестировать) из файлы Comformer?
Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 82): modelos de equações diferenciais ordinárias (NeuralODE)
Redes neurais de maneira fácil (Parte 82): modelos de equações diferenciais ordinárias (NeuralODE)

Neste artigo, gostaria de apresentar outro tipo de modelos voltados para o estudo da dinâmica do estado do ambiente.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 81): Análise da dinâmica dos dados considerando o contexto (CCMR)
Redes neurais de maneira fácil (Parte 81): Análise da dinâmica dos dados considerando o contexto (CCMR)

Em trabalhos anteriores, sempre avaliamos o estado atual do ambiente. No entanto, a dinâmica das mudanças dos indicadores sempre ficou "nos bastidores". Neste artigo, quero apresentar a vocês um algoritmo que permite avaliar a mudança direta dos dados entre dois estados consecutivos do ambiente.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 80): modelo generativo adversarial do transformador de grafos (GTGAN)
Redes neurais de maneira fácil (Parte 80): modelo generativo adversarial do transformador de grafos (GTGAN)

Neste artigo, apresento o algoritmo GTGAN, que foi introduzido em janeiro de 2024 para resolver tarefas complexas de criação de layout arquitetônico com restrições de grafos.