Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • 信息
12+ 年
经验
0
产品
0
演示版
134
工作
0
信号
0
订阅者
X
任何的MT4和MT5複雜專業寫作計劃。
Dmitriy Gizlyk
已发布文章神经网络变得简单(第 97 部分):搭配 MSFformer 训练模型
神经网络变得简单(第 97 部分):搭配 MSFformer 训练模型

在探索各种模型架构设计时,我们往往对模型训练过程的关注投入不足。在本文中,我旨在弥补这一差距。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 96 部分):多尺度特征提取(MSFformer)
神经网络变得简单(第 96 部分):多尺度特征提取(MSFformer)

高效提取与集成长期依赖关系和短期特征,仍然是时间序列分析中的一项重要任务。它们的正确理解及整合,对于创建准确可靠的预测模型是必要的。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 95 部分):降低变换器模型中的内存消耗
神经网络变得简单(第 95 部分):降低变换器模型中的内存消耗

基于变换器架构的模型展现出高效率,但由于在训练阶段、及运行期间都资源成本高昂,故它们的使用变得复杂。在本文中,我提议领略那些能够降低此类模型内存占用的算法。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 94 部分):优化输入序列
神经网络变得简单(第 94 部分):优化输入序列

在处理时间序列时,我们始终按其历史序列使用源数据。但这是最好的选项吗?有一种观点认为,改变输入数据顺序将提高训练模型的效率。在本文中,我邀请您领略其中一种优化输入序列的方法。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 93 部分):频域和时域中的自适应预测(终篇)
神经网络变得简单(第 93 部分):频域和时域中的自适应预测(终篇)

在本文中,我们继续实现 ATFNet 模型的方式,其在时间序列预测内可自适应地结合 2 个模块(频域和时域)的结果。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 92 部分):频域和时域中的自适应预测
神经网络变得简单(第 92 部分):频域和时域中的自适应预测

FreDF 方法的作者通过实验证实了结合频域和时域进行预测的优势。不过,权重超参数的使用对于非稳态时间序列并非最优。在本文中,我们将领略结合频域和时域预测的自适应方法。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 91 部分):频域预测(FreDF)
神经网络变得简单(第 91 部分):频域预测(FreDF)

我们继续探索时间序列在频域中的分析和预测。在本文中,我们将领略一种在频域中预测数据的新方法,它可被加到我们之前研究过的众多算法当中。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 90 部分):时间序列的频率插值(FITS)
神经网络变得简单(第 90 部分):时间序列的频率插值(FITS)

通过研究 FEDformer 方法,我们打开了时间序列频域表述的大门。在这篇新文章中,我们将继续一开始的主题。我们将研究一种方法,据其我们不仅能进行分析,还可以预测特定区域的后续状态。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 89 部分):频率增强分解变换器(FEDformer)
神经网络变得简单(第 89 部分):频率增强分解变换器(FEDformer)

到目前为止,我们研究过的所有模型在分析环境状态时都将其当作时间序列。不过,时间序列也能以频率特征的形式表示。在本文中,我将向您介绍一种算法,即利用时间序列的频率分量来预测未来状态。

· 1 1066
Dmitriy Gizlyk
已发布文章神经网络变得简单(第 88 部分):时间序列密集编码器(TiDE)
神经网络变得简单(第 88 部分):时间序列密集编码器(TiDE)

为尝试获得最准确的预测,研究人员经常把预测模型复杂化。而反过来又会导致模型训练和维护成本增加。这样的增长总是公正的吗?本文阐述了一种算法,即利用线性模型的简单性和速度,并演示其结果与拥有更复杂架构的最佳模型相当。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 87 部分):时间序列补片化
神经网络变得简单(第 87 部分):时间序列补片化

预测在时间序列分析中扮演重要角色。在新文章中,我们将谈谈时间序列补片化的益处。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 86 部分):U-形变换器
神经网络变得简单(第 86 部分):U-形变换器

我们继续研究时间序列预测算法。在本文中,我们将讨论另一种方法:U-形变换器。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 85 部分):多变元时间序列预测
神经网络变得简单(第 85 部分):多变元时间序列预测

在本文中,我愿向您介绍一种新的复杂时间序列预测方法,它和谐地结合了线性模型和转换器的优点。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 84 部分):可逆归一化(RevIN)
神经网络变得简单(第 84 部分):可逆归一化(RevIN)

我们已经知晓,输入数据的预处理对于模型训练的稳定性扮演重要角色。为了在线处理 “原始” 输入数据,我们往往会用到批量归一化层。但有时我们需要一个逆过程。在本文中,我们将讨论解决该问题的可能方式之一。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 83 部分):“构象”时空连续关注度转换器算法
神经网络变得简单(第 83 部分):“构象”时空连续关注度转换器算法

本文介绍了最初是为天气预报而开发的“构象(Conformer)”算法,其变化多端之处可与金融市场相提并论。“构象(Conformer)”是一种复杂的方法。它结合了关注度模型和常微分方程的优点。

Look Mode
Look Mode 2024.03.30
Здравствуйте, как эти файлы попробовать (тестировать) из файлы Comformer?
Dmitriy Gizlyk
已发布文章神经网络变得简单(第 82 部分):常微分方程模型(NeuralODE)
神经网络变得简单(第 82 部分):常微分方程模型(NeuralODE)

在本文中,我们将讨论另一种模型类型,它们旨在研究环境状态的动态。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 81 部分):上下文引导运动分析(CCMR)
神经网络变得简单(第 81 部分):上下文引导运动分析(CCMR)

在以前的工作中,我们总是评估环境的当前状态。与此同时,指标变化的动态始终保持在“幕后”。在本文中,我打算向您介绍一种算法,其允许您评估 2 个连续环境状态数据之间的直接变化。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 80 部分):图形变换器生成式对抗模型(GTGAN)
神经网络变得简单(第 80 部分):图形变换器生成式对抗模型(GTGAN)

在本文中,我将领略 GTGAN 算法,该算法于 2024 年 1 月推出,是为解决依据图形约束生成架构布局的复杂问题。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 79 部分):在状态上下文中的特征聚合查询(FAQ)
神经网络变得简单(第 79 部分):在状态上下文中的特征聚合查询(FAQ)

在上一篇文章中,我们领略了一种从图像中检测对象的方法。不过,处理静态图像与处理动态时间序列(例如我们所分析的价格动态)有些不同。在本文中,我们将研究检测视频中对象的方法,其可在某种程度上更接近我们正在解决的问题。

Dmitriy Gizlyk
已发布文章神经网络变得简单(第 78 部分):带有变换器的无解码对象检测器(DFFT)
神经网络变得简单(第 78 部分):带有变换器的无解码对象检测器(DFFT)

在本文中,我提议从不同的角度看待构建交易策略的问题。我们不会预测未来的价格走势,但会尝试基于历史数据分析构建交易系统。