Dmitriy Gizlyk
Dmitriy Gizlyk
  • 情報
11+ 年
経験
0
製品
0
デモバージョン
134
ジョブ
0
シグナル
0
購読者
Professional writing programs of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 96): Многоуровневое извлечение признаков (MSFformer)
Нейросети — это просто (Часть 96): Многоуровневое извлечение признаков (MSFformer)

Эффективное извлечение и объединение долгосрочных зависимостей и краткосрочных характеристик остаются важной задачей в анализе временных рядов. Правильное их понимание и интеграция необходимы для создания точных и надежных предсказательных моделей.

1
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 95): Снижение потребления памяти в моделях Transformer
Нейросети — это просто (Часть 95): Снижение потребления памяти в моделях Transformer

Модели на основе архитектуры Transformer демонстрируют высокую эффективность, однако их использование осложняется большими затратами ресурсов как на этапе обучения, так и в процессе эксплуатации. В этой статье я предлагаю познакомиться с алгоритмами, которые позволяют уменьшить использование памяти такими моделями.

3
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных
Нейросети — это просто (Часть 94): Оптимизация последовательности исходных данных

При работе с временными рядами мы всегда используем исходные данные в их исторической последовательности. Но является ли это оптимальным вариантом? Существует мнение, что изменение последовательности исходных данных позволит повысить эффективность обучаемых моделей. В данной статье я предлагаю вам познакомиться с одним из таких методов.

2
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)
Нейросети — это просто (Часть 93): Адаптивное прогнозирование в частотной и временной областях (Окончание)

В данной статье мы продолжаем реализацию подходов ATFNet — модели, которая адаптивно объединяет результаты 2 блоков (частотного и временного) прогнозирования временных рядов

1
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях
Нейросети — это просто (Часть 92): Адаптивное прогнозирование в частотной и временной областях

Авторы метода FreDF экспериментально подтвердили преимущество комбинированного прогнозирования в частотной и временной областях. Однако применение весового гиперпараметра не является оптимальным для нестационарных временных рядов. В данной статье я предлагаю познакомиться с методом адаптивного сочетания прогнозов в частотной и временной областях.

Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 91): Прогнозирование в частотной области (FreDF)
Нейросети — это просто (Часть 91): Прогнозирование в частотной области (FreDF)

Мы продолжаем рассмотрение темы анализ и прогнозирования временных рядов в частотной области. И в данной статье мы познакомимся с новым методом прогнозирования в частотной области, который может быть добавлен к многим, изученным нами ранее, алгоритмам.

1
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)
Нейросети — это просто (Часть 90): Частотная интерполяция временных рядов (FITS)

При изучении метода FEDformer мы приоткрыли дверь в частотную область представления временного ряда. В новой статье мы продолжим начатую тему. И рассмотрим метод, позволяющий не только проводить анализ, но и прогнозировать последующие состояния в частной области.

1
Dmitriy Gizlyk
パブリッシュされた記事Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)
Нейросети — это просто (Часть 89): Трансформер частотного разложения сигнала (FEDformer)

Все рассмотренные нами ранее модели анализируют состояние окружающей среды в виде временной последовательности. Однако, тот же временной ряд можно представить и в виде частотных характеристик. В данной статье я предлагаю вам познакомиться с алгоритмом, который использует частотные характеристики временной последовательности для прогнозирования будущих состояний.

1
Dmitriy Gizlyk
パブリッシュされた記事Neural Networks Made Easy (Part 88): Time-Series Dense Encoder (TiDE)
Neural Networks Made Easy (Part 88): Time-Series Dense Encoder (TiDE)

In an attempt to obtain the most accurate forecasts, researchers often complicate forecasting models. Which in turn leads to increased model training and maintenance costs. Is such an increase always justified? This article introduces an algorithm that uses the simplicity and speed of linear models and demonstrates results on par with the best models with a more complex architecture.

2
Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第87回):時系列パッチ
ニューラルネットワークが簡単に(第87回):時系列パッチ

予測は時系列分析において重要な役割を果たします。この新しい記事では、時系列パッチの利点についてお話しします。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第86回):U字型Transformer
ニューラルネットワークが簡単に(第86回):U字型Transformer

時系列予測アルゴリズムの研究を続けます。この記事では、もう1つの方法であるU字型Transformerについて説明します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第85回):多変量時系列予測
ニューラルネットワークが簡単に(第85回):多変量時系列予測

この記事では、線形モデルとTransformerの長所を調和的に組み合わせた、新しい複雑な時系列予測手法を紹介します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第84回):RevIN (Reversible Normalization)
ニューラルネットワークが簡単に(第84回):RevIN (Reversible Normalization)

入力データの前処理がモデル訓練の安定性に大きく寄与することは、すでに広く知られています。オンラインで「生」の入力データを処理するために、バッチ正規化層が頻繁に使用されますが、時には逆の手順が求められる場合もあります。この記事では、この問題を解決するための1つのアプローチについて解説します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第83回):「Conformer」Spatio-Temporal Continuous Attention Transformerアルゴリズム
ニューラルネットワークが簡単に(第83回):「Conformer」Spatio-Temporal Continuous Attention Transformerアルゴリズム

この記事では、天気予報を目的に開発されたConformerアルゴリズムについて紹介します。天気の変動性や予測の難しさは、金融市場の動きとしばしば比較されます。Conformerは、Attentionモデルと常微分方程式の利点を組み合わせた高度な手法です。

Look Mode
Look Mode 2024.03.30
Здравствуйте, как эти файлы попробовать (тестировать) из файлы Comformer?
Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第82回):常微分方程式モデル(NeuralODE)
ニューラルネットワークが簡単に(第82回):常微分方程式モデル(NeuralODE)

この記事では、環境状態のダイナミクスを研究することを目的とした別のタイプのモデルについて説明します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第81回):Context-Guided Motion Analysis (CCMR)
ニューラルネットワークが簡単に(第81回):Context-Guided Motion Analysis (CCMR)

これまでの作業では、常に環境の現状を評価しました。同時に、指標の変化のダイナミクスは常に「舞台裏」にとどまっていました。この記事では、連続する2つの環境状態間のデータの直接的な変化を評価できるアルゴリズムを紹介したいと思います。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第80回):Graph Transformer Generative Adversarial Model (GTGAN)
ニューラルネットワークが簡単に(第80回):Graph Transformer Generative Adversarial Model (GTGAN)

この記事では、2024年1月に導入された、グラフ制約のある建築レイアウト生成の複雑な問題を解くためのGTGAN (Graph Transformer Generative Adversarial Model)アルゴリズムについて知ろうと思います。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第79回):状態の文脈におけるFeature Aggregated Queries (FAQ)
ニューラルネットワークが簡単に(第79回):状態の文脈におけるFeature Aggregated Queries (FAQ)

前回の記事では、画像内のオブジェクトを検出する方法の1つを紹介しました。ただし、静的な画像の処理は、私たちが分析する価格のダイナミクスのような動的な時系列の処理とは多少異なります。この記事では、私たちが解決しようとしている問題にやや近い、ビデオ中の物体を検出する方法について考えます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第78回):Transformerを用いたデコーダなしの物体検出器(DFFT)
ニューラルネットワークが簡単に(第78回):Transformerを用いたデコーダなしの物体検出器(DFFT)

この記事では、取引戦略の構築という問題を別の角度から見てみようと思います。将来の値動きを予測するのではなく、過去のデータの分析に基づいた取引システムの構築を試みます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第77回):Cross-Covariance Transformer (XCiT)
ニューラルネットワークが簡単に(第77回):Cross-Covariance Transformer (XCiT)

モデルでは、しばしば様々なAttentionアルゴリズムを使用します。そして、おそらく最もよく使用するのがTransformerです。Transformerの主な欠点はリソースを必要とすることです。この記事では、品質を損なうことなく計算コストを削減する新しいアルゴリズムについて考察します。