Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (49)
  • Informações
11+ anos
experiência
0
produtos
0
versão demo
134
trabalhos
0
sinais
0
assinantes
Escrever programas profissionais de qualquer complexidade para MT4, MT5, C#.
Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 95): Снижение потребления памяти в моделях Transformer
Нейросети — это просто (Часть 95): Снижение потребления памяти в моделях Transformer

Модели на основе архитектуры Transformer демонстрируют высокую эффективность, однако их использование осложняется большими затратами ресурсов как на этапе обучения, так и в процессе эксплуатации. В этой статье я предлагаю познакомиться с алгоритмами, которые позволяют уменьшить использование памяти такими моделями.

3
Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных
Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных

При работе с временными рядами мы всегда используем исходные данные в их исторической последовательности. Но является ли это оптимальным вариантом? Существует мнение, что изменение последовательности исходных данных позволит повысить эффективность обучаемых моделей. В данной статье я предлагаю вам познакомиться с одним из таких методов.

2
Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)
Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)

В данной статье мы продолжаем реализацию подходов ATFNet — модели, которая адаптивно объединяет результаты 2 блоков (частотного и временного) прогнозирования временных рядов

1
Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях
Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях

Авторы метода FreDF экспериментально подтвердили преимущество комбинированного прогнозирования в частотной и временной областях. Однако применение весового гиперпараметра не является оптимальным для нестационарных временных рядов. В данной статье я предлагаю познакомиться с методом адаптивного сочетания прогнозов в частотной и временной областях.

Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 91): Прогнозирование в частотной области (FreDF)
Нейросети — это просто (Часть 91): Прогнозирование в частотной области (FreDF)

Мы продолжаем рассмотрение темы анализ и прогнозирования временных рядов в частотной области. И в данной статье мы познакомимся с новым методом прогнозирования в частотной области, который может быть добавлен к многим, изученным нами ранее, алгоритмам.

1
Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)
Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)

При изучении метода FEDformer мы приоткрыли дверь в частотную область представления временного ряда. В новой статье мы продолжим начатую тему. И рассмотрим метод, позволяющий не только проводить анализ, но и прогнозировать последующие состояния в частной области.

1
Dmitriy Gizlyk
Publicado o artigo Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)
Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)

Все рассмотренные нами ранее модели анализируют состояние окружающей среды в виде временной последовательности. Однако, тот же временной ряд можно представить и в виде частотных характеристик. В данной статье я предлагаю вам познакомиться с алгоритмом, который использует частотные характеристики временной последовательности для прогнозирования будущих состояний.

1
Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 88): Codificador denso de séries temporais (TiDE)
Redes neurais de maneira fácil (Parte 88): Codificador denso de séries temporais (TiDE)

O desejo de obter previsões mais precisas leva os pesquisadores a complicar os modelos de previsão. Isso, por sua vez, aumenta os custos de treinamento e manutenção do modelo. Mas será que isso sempre é justificado? Neste artigo, proponho que você conheça um algoritmo que utiliza a simplicidade e a velocidade dos modelos lineares, e demonstra resultados no nível dos melhores com uma arquitetura mais complexa.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 87): Segmentação de séries temporais
Redes neurais de maneira fácil (Parte 87): Segmentação de séries temporais

A previsão desempenha um papel importante na análise de séries temporais. No novo artigo, falaremos sobre as vantagens da segmentação de séries temporais.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 86): Transformador em forma de U
Redes neurais de maneira fácil (Parte 86): Transformador em forma de U

Continuamos a analisar algoritmos de previsão de séries temporais. E neste artigo, proponho que você conheça o método U-shaped Transformer.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 85): previsão multidimensional de séries temporais
Redes neurais de maneira fácil (Parte 85): previsão multidimensional de séries temporais

Neste artigo, quero apresentar a vocês um novo método abrangente de previsão de séries temporais, que combina harmoniosamente as vantagens dos modelos lineares e dos transformers.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 84): normalização reversível (RevIN)
Redes neurais de maneira fácil (Parte 84): normalização reversível (RevIN)

Há muito já aprendemos que o pré-processamento dos dados brutos desempenha um grande papel na estabilidade do treinamento do modelo. E, para o processamento online de dados "brutos", frequentemente usamos a camada de normalização em lote. No entanto, às vezes surge a necessidade de um procedimento inverso. Um dos possíveis métodos para resolver tais tarefas é discutido neste artigo.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 83): Transformador espaciotemporal de atenção contínua (Conformer)
Redes neurais de maneira fácil (Parte 83): Transformador espaciotemporal de atenção contínua (Conformer)

O algoritmo Conformer, apresentado aqui, foi desenvolvido para prever o tempo, que, em termos de variabilidade e imprevisibilidade, pode ser comparado aos mercados financeiros. O Conformer é um método complexo que combina as vantagens dos modelos de atenção e das equações diferenciais ordinárias.

Look Mode
Look Mode 2024.03.30
Здравствуйте, как эти файлы попробовать (тестировать) из файлы Comformer?
Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 82): modelos de equações diferenciais ordinárias (NeuralODE)
Redes neurais de maneira fácil (Parte 82): modelos de equações diferenciais ordinárias (NeuralODE)

Neste artigo, gostaria de apresentar outro tipo de modelos voltados para o estudo da dinâmica do estado do ambiente.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 81): Análise da dinâmica dos dados considerando o contexto (CCMR)
Redes neurais de maneira fácil (Parte 81): Análise da dinâmica dos dados considerando o contexto (CCMR)

Em trabalhos anteriores, sempre avaliamos o estado atual do ambiente. No entanto, a dinâmica das mudanças dos indicadores sempre ficou "nos bastidores". Neste artigo, quero apresentar a vocês um algoritmo que permite avaliar a mudança direta dos dados entre dois estados consecutivos do ambiente.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 80): modelo generativo adversarial do transformador de grafos (GTGAN)
Redes neurais de maneira fácil (Parte 80): modelo generativo adversarial do transformador de grafos (GTGAN)

Neste artigo, apresento o algoritmo GTGAN, que foi introduzido em janeiro de 2024 para resolver tarefas complexas de criação de layout arquitetônico com restrições de grafos.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 79): consultas agregadas de características (FAQ)
Redes neurais de maneira fácil (Parte 79): consultas agregadas de características (FAQ)

No artigo anterior, nos familiarizamos com um dos métodos de detecção de objetos em imagens. No entanto, o processamento de imagens estáticas é um pouco diferente do trabalho com séries temporais dinâmicas, como aquelas relacionadas à dinâmica dos preços que estamos analisando. Neste artigo, quero apresentar a você o método de detecção de objetos em vídeo, que é mais relevante para a nossa tarefa atual.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 78): Detecção de objetos baseada em Transformador (DFFT)
Redes neurais de maneira fácil (Parte 78): Detecção de objetos baseada em Transformador (DFFT)

Neste artigo, proponho olhar a questão da construção de uma estratégia de trading de outra perspectiva. Em vez de prever o movimento futuro dos preços, tentaremos construir um sistema de trading baseado na análise de dados históricos.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 77): Cross-Covariance Transformer (XCiT)
Redes neurais de maneira fácil (Parte 77): Cross-Covariance Transformer (XCiT)

Em nossos modelos, frequentemente usamos vários algoritmos de atenção. E, provavelmente, usamos Transformadores com mais frequência. A principal desvantagem deles é a exigência de recursos. Neste artigo, quero apresentar um algoritmo que ajuda a reduzir os custos computacionais sem perda de qualidade.

Dmitriy Gizlyk
Publicado o artigo Redes neurais de maneira fácil (Parte 76): explorando diversos modos de interação (Multi-future Transformer)
Redes neurais de maneira fácil (Parte 76): explorando diversos modos de interação (Multi-future Transformer)

Neste artigo, continuamos o tema de previsão do movimento de preços. E convido você a conhecer a arquitetura do Multi-future Transformer. A ideia principal é decompor a distribuição multimodal do futuro em várias distribuições unimodais, permitindo modelar eficientemente diversos modos de interação entre os agentes na cena.