Dmitriy Gizlyk / 个人资料
- 信息
10+ 年
经验
|
0
产品
|
0
演示版
|
134
工作
|
0
信号
|
0
订阅者
|
![Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных](https://c.mql5.com/2/80/Neural_networks_are_easy_Part_94____LOGO.png)
При работе с временными рядами мы всегда используем исходные данные в их исторической последовательности. Но является ли это оптимальным вариантом? Существует мнение, что изменение последовательности исходных данных позволит повысить эффективность обучаемых моделей. В данной статье я предлагаю вам познакомиться с одним из таких методов.
![Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)](https://c.mql5.com/2/80/Neural_networks_are_easy_Part_93____LOGO.png)
В данной статье мы продолжаем реализацию подходов ATFNet — модели, которая адаптивно объединяет результаты 2 блоков (частотного и временного) прогнозирования временных рядов
![Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях](https://c.mql5.com/2/79/Neural_networks_are_easy_Part_92____LOGO.png)
Авторы метода FreDF экспериментально подтвердили преимущество комбинированного прогнозирования в частотной и временной областях. Однако применение весового гиперпараметра не является оптимальным для нестационарных временных рядов. В данной статье я предлагаю познакомиться с методом адаптивного сочетания прогнозов в частотной и временной областях.
![Нейросети — это просто (Часть 91): Прогнозирование в частотной области (FreDF)](https://c.mql5.com/2/78/Neural_networks_are_easy_Part_91___LOGO.png)
Мы продолжаем рассмотрение темы анализ и прогнозирования временных рядов в частотной области. И в данной статье мы познакомимся с новым методом прогнозирования в частотной области, который может быть добавлен к многим, изученным нами ранее, алгоритмам.
![Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)](https://c.mql5.com/2/78/Neural_networks_are_easy_tPart_90x__LOGO.png)
При изучении метода FEDformer мы приоткрыли дверь в частотную область представления временного ряда. В новой статье мы продолжим начатую тему. И рассмотрим метод, позволяющий не только проводить анализ, но и прогнозировать последующие состояния в частной области.
![Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)](https://c.mql5.com/2/77/Neural_networks_are_easy_cPart_89q___LOGO.png)
Все рассмотренные нами ранее модели анализируют состояние окружающей среды в виде временной последовательности. Однако, тот же временной ряд можно представить и в виде частотных характеристик. В данной статье я предлагаю вам познакомиться с алгоритмом, который использует частотные характеристики временной последовательности для прогнозирования будущих состояний.
![Нейросети — это просто (Часть 88): Полносвязный Энкодер временных рядов (TiDE)](https://c.mql5.com/2/76/Neural_networks_are_easy_7Part_88j___LOGO.png)
Желание получить наиболее точные прогнозы толкает исследователей к усложнению моделей прогнозирование. Что в свою очередь ведет к увеличению затрат на обучение и обслуживание модели. Но всегда ли это оправдано? В данной статье я предлагаю Вам познакомиться с алгоритмом, который использует простоту и скорость линейных моделей и демонстрирует результаты на уровне лучших с более сложной архитектурой.
![Нейросети — это просто (Часть 87): Сегментация временных рядов](https://c.mql5.com/2/76/Neural_networks_are_easy_fPart_87k____LOGO.png)
Прогнозирование играет важную роль в анализе временных рядов. В новой статье мы поговорим о преимуществах сегментации временных рядов.
![Нейросети — это просто (Часть 86): U-образный Трансформер](https://c.mql5.com/2/75/Neural_networks_are_easy_vPart_86m____LOGO.png)
Мы продолжаем рассмотрение алгоритмов прогнозирования временных рядов. И в данной статье я предлагаю Вам познакомиться с методов U-shaped Transformer.
![Нейросети — это просто (Часть 85): Многомерное прогнозирование временных рядов](https://c.mql5.com/2/75/Neural_networks_are_easy_sPart_858___LOGO.png)
В данной статье хочу познакомить Вас с новым комплексным методом прогнозирования временных рядов, который гармонично сочетает в себе преимущества линейных моделей и трансформеров.
![Нейросети — это просто (Часть 84): Обратимая нормализация (RevIN)](https://c.mql5.com/2/74/Neural_networks_are_easy_5Part_84q_____LOGO.png)
Мы давно уже усвоили, что большую роль в стабильности обучения модели играет предварительная обработка исходных данных. И для online обработки "сырых" исходных данных мы часто используем слой пакетной нормализации. Но порой возникает необходимость обратной процедуры. Об одном из возможных подходов к решению подобных задач мы говорим в данной статье.
![Нейросети — это просто (Часть 83): Алгоритм пространственно-временного преобразователя постоянного внимания (Conformer)](https://c.mql5.com/2/74/Neural_networks_are_easy_0Part_83a___LOGO.png)
Предлагаемый Вашему вниманию алгоритм Conformer был разработан для целей прогнозирования погоды, которую по изменчивости и капризности можно сравнить с финансовыми рынками. Conformer является комплексным методом. И сочетает в себе преимущества моделей внимания и обычных дифференциальных уравнений.
![Look Mode Look Mode](https://c.mql5.com/avatar/2023/8/64CEB09F-4080.png)
![Нейросети — это просто (Часть 82): Модели Обыкновенных Дифференциальных Уравнений (NeuralODE)](https://c.mql5.com/2/73/Neural_networks_are_easy_Part_82__LOGO.png)
В данной статье я предлагаю познакомиться Вас с еще одним типом моделей, которые направлены на изучение динамики состояния окружающей среды.
![Нейросети — это просто (Часть 81): Анализ динамики данных с учетом контекста (CCMR)](https://c.mql5.com/2/73/Neural_networks_are_easy_Part_81___LOGO.png)
В предыдущих работах мы всегда оценивали текущее состояния окружающей среды. При этом динамика изменения показателей, как таковая, всегда оставалась "за кадром". В данной статье я хочу познакомить Вас с алгоритмом, который позволяет оценить непосредственное изменение данных между 2 последовательными состояниями окружающей среды.
![Нейросети — это просто (Часть 80): Генеративно-состязательная модель Трансформера графов (GTGAN)](https://c.mql5.com/2/72/Neural_networks_are_easy_Part_80___LOGO.png)
В данной статье я предлагаю Вам познакомиться с алгоритмом GTGAN, который был представлен в январе 2024 года для решения сложных задач по созданию архитектурного макета с ограничениями на граф.
![Нейросети — это просто (Часть 79): Агрегирование запросов в контексте состояния (FAQ)](https://c.mql5.com/2/71/Neural_networks_are_easy_Part_79____LOGO__2.png)
В предыдущей статье мы познакомились с одним из методом обнаружение объектов на изображении. Однако, обработка статического изображения несколько отличается от работы с динамическими временными рядами, к которым относится и динамика анализируемых нами цен. В данной статье я хочу предложить Вам познакомиться с методом обнаружения объектов на видео, что несколько ближе к решаемой нами задаче.
![Нейросети — это просто (Часть 78): Детектор объектов на основе Трансформера (DFFT)](https://c.mql5.com/2/70/Neural_networks_made_easy_Part_78____LOGO.png)
В данной статье я предлагаю посмотреть на вопрос построения торговой стратегии с другой стороны. Мы не будем прогнозировать будущее ценовое движение, а попробуем построить торговую систему на основе анализа исторических данных.
![Нейросети — это просто (Часть 77): Кросс-ковариационный Трансформер (XCiT)](https://c.mql5.com/2/70/Neural_networks_made_easy_pPart_77c__Cross-Covariance_Transformer_tXCiTl____LOGO.png)
В своих моделях мы часто используем различные алгоритмы внимание. И, наверное, чаще всего мы используем Трансформеры. Основным их недостатком является требование к ресурсам. В данной статье я хочу предложить Вам познакомиться с алгоритмом, который поможет снизить затраты на вычисления без потери качества.
![Нейросети — это просто (Часть 76): Изучение разнообразных режимов взаимодействия (Multi-future Transformer)](https://c.mql5.com/2/69/Neural_networks_made_easy_zPart_765_Exploring_various_modes_of_interaction_Multi-future_Transformer_.png)
В данной статье мы продолжаем тему прогнозирования предстоящего ценового движения. И предлагаю Вам познакомиться с архитектурой Multi-future Transformer. Основная идея которого заключается в разложении мультимодального распределение будущего на несколько унимодальных распределений, что позволяет эффективно моделировать разнообразные модели взаимодействия между агентами на сцене.
![Нейросети — это просто (Часть 75): Повышение производительности моделей прогнозирования траекторий](https://c.mql5.com/2/68/Neural_Networks_Made_Easy_dPart_751_Improving_the_Performance_of_Trajectory_Prediction_Models____LOG.png)
Создаваемые нами модели становятся все больше и сложнее. Вместе с тем растут затраты не только на их обучение, но и эксплуатацию. При этом довольно часто мы сталкиваемся с ситуацией, когда затраты времени на принятие решения бывают критичны. И в этой связи мы обращаем свое внимание на методы оптимизации производительности моделей без потери качества.