![Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)](https://c.mql5.com/2/77/Neural_networks_are_easy_0Part_89y_600x314.jpg)
Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)
Все рассмотренные нами ранее модели анализируют состояние окружающей среды в виде временной последовательности. Однако, тот же временной ряд можно представить и в виде частотных характеристик. В данной статье я предлагаю вам познакомиться с алгоритмом, который использует частотные характеристики временной последовательности для прогнозирования будущих состояний.
![Теория категорий в MQL5 (Часть 6): Мономорфные расслоенные произведения и эпиморфные кодекартовы квадраты](https://c.mql5.com/2/53/Category-Theory-p6_600x314.jpg)
Теория категорий в MQL5 (Часть 6): Мономорфные расслоенные произведения и эпиморфные кодекартовы квадраты
Теория категорий представляет собой разнообразный и расширяющийся раздел математики, который лишь недавно начал освещаться в MQL5-сообществе. Эта серия статей призвана рассмотреть некоторые из ее концепций для создания открытой библиотеки и дальнейшему использованию этого замечательного раздела в создании торговых стратегий.
![Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях](https://c.mql5.com/2/79/Neural_networks_are_easy_Part_92_600x314.jpg)
Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях
Авторы метода FreDF экспериментально подтвердили преимущество комбинированного прогнозирования в частотной и временной областях. Однако применение весового гиперпараметра не является оптимальным для нестационарных временных рядов. В данной статье я предлагаю познакомиться с методом адаптивного сочетания прогнозов в частотной и временной областях.
![Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)](https://c.mql5.com/2/78/Neural_networks_are_easy_hPart_90t_600x314.jpg)
Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)
При изучении метода FEDformer мы приоткрыли дверь в частотную область представления временного ряда. В новой статье мы продолжим начатую тему. И рассмотрим метод, позволяющий не только проводить анализ, но и прогнозировать последующие состояния в частной области.
![Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)](https://c.mql5.com/2/79/Neural_networks_are_easy_Part_93_600x314.jpg)
Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)
В данной статье мы продолжаем реализацию подходов ATFNet — модели, которая адаптивно объединяет результаты 2 блоков (частотного и временного) прогнозирования временных рядов
![Реализация обобщенного показателя Херста и теста коэффициента дисперсии в MQL5](https://c.mql5.com/2/69/Implementing_the_Generalized_Hurst_Exponent_and_the_Variance_Ratio_test_in_MQL5_600x314__3.jpg)
Реализация обобщенного показателя Херста и теста коэффициента дисперсии в MQL5
В этой статье мы рассмторим, как можно использовать обобщенный показатель Херста (Generalized Hurst Exponent) и тест коэффициента дисперсии (Variance Ratio) для анализа поведения ценовых рядов в MQL5.
![Введение в MQL5 (Часть 3): Изучаем основные элементы MQL5](https://c.mql5.com/2/65/Introduction_to_MQL5_7Part_36_Mastering_the_Core_Elements_of_MQL5_600x314.jpg)
Введение в MQL5 (Часть 3): Изучаем основные элементы MQL5
В этой статье мы продолжаем изучать основы программирования на MQL5. Мы рассмотрим массивы, пользовательские функции, препроцессоры и обработку событий. Для наглядности каждый шаг всех объяснений будет сопровождаться кодом. Эта серия статей закладывает основу для изучения MQL5, уделяя особое внимание объяснению каждой строки кода.
![Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных](https://c.mql5.com/2/80/Neural_networks_are_easy_Part_94_600x314.jpg)
Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных
При работе с временными рядами мы всегда используем исходные данные в их исторической последовательности. Но является ли это оптимальным вариантом? Существует мнение, что изменение последовательности исходных данных позволит повысить эффективность обучаемых моделей. В данной статье я предлагаю вам познакомиться с одним из таких методов.