Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (49)
  • 信息
10+ 年
经验
0
产品
0
演示版
134
工作
0
信号
0
订阅者
任何的MT4和MT5複雜專業寫作計劃。
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十六部分):强化学习
神经网络变得轻松(第二十六部分):强化学习

我们继续研究机器学习方法。 自本文,我们开始另一个大话题,强化学习。 这种方式允许为模型设置某些策略来解决问题。 我们可以预期,强化学习的这种特性将为构建交易策略开辟新的视野。

· 7 1321
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十五部分):实践迁移学习
神经网络变得轻松(第二十五部分):实践迁移学习

在最晚的两篇文章中,我们开发了一个创建和编辑神经网络模型的工具。 现在是时候通过实践示例来评估迁移学习技术的潜在用途了。

· 6 1158
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十四部分):改进迁移学习工具
神经网络变得轻松(第二十四部分):改进迁移学习工具

在上一篇文章中,我们创建了一款用于创建和编辑神经网络架构的工具。 今天我们将继续打造这款工具。 我们将努力令其对用户更加友好。 也许可以看到,我们的主题往上更进一步。 但是,您不认为规划良好的工作空间在实现结果方面起着重要作用吗?

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十三部分):构建迁移学习工具
神经网络变得轻松(第二十三部分):构建迁移学习工具

在本系列文章中,我们已经不止一次提到了迁移学习。 然而,都只是提及而已。 在本文中,我建议填补这一空白,并仔细研究迁移学习。

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十二部分):递归模型的无监督学习
神经网络变得轻松(第二十二部分):递归模型的无监督学习

我们继续研究无监督学习算法。 这次我建议我们讨论自动编码器应用于递归模型训练时的特性。

· 2 1249
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十一部分):变分自动编码器(VAE)
神经网络变得轻松(第二十一部分):变分自动编码器(VAE)

在上一篇文章中,我们已熟悉了自动编码器算法。 像其它任何算法一样,它也有其优点和缺点。 在其原始实现中,自动编码器会尽可能多地将对象与训练样本分开。 这次我们将讨论如何应对它的一些缺点。

· 2 1449
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二十部分):自动编码器
神经网络变得轻松(第二十部分):自动编码器

我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。

· 3 1439
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十九部分):使用 MQL5 的关联规则
神经网络变得轻松(第十九部分):使用 MQL5 的关联规则

我们继续研究关联规则。 在前一篇文章中,我们讨论了这种类型问题的理论层面。 在本文中,我将展示利用 MQL5 实现 FP-Growth 方法。 我们还将采用真实数据测试所实现的解决方案。

· 3 1173
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十八部分):关联规则
神经网络变得轻松(第十八部分):关联规则

作为本系列文章的延续,我们来研究无监督学习方法中的另一类问题:挖掘关联规则。 这种问题类型首先用于零售业,即超市等,来分析市场篮子。 在本文中,我们将讨论这些算法在交易中的适用性。

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十七部分):降低维度
神经网络变得轻松(第十七部分):降低维度

在本部分中,我们将继续讨论人工智能模型。 即,我们研究无监督学习算法。 我们已经讨论了众多聚类算法之一。 在本文中,我将分享一种解决与降维相关问题的方法。

· 3 1200
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十六部分):聚类运用实践
神经网络变得轻松(第十六部分):聚类运用实践

在上一篇文章中,我们为数据聚类创建了一个类。 在本文中,我想分享在解决实际交易任务时应用所获结果会遇到的可能变体。

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十五部分):利用 MQL5 进行数据聚类
神经网络变得轻松(第十五部分):利用 MQL5 进行数据聚类

我们继续研究聚类方法。 在本文中,我们将创建一个新的 CKmeans 类来实现最常见的聚类方法之一:k-均值。 在测试期间,该模型成功地识别了大约 500 种形态。

Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十四部分):数据聚类
神经网络变得轻松(第十四部分):数据聚类

我的上一篇文章已经发表一年多了。 这令我有了大量时间考虑修改思路和发展新方法。 在这篇新文章中,我想转移一下以前使用的监督学习方法。 这次我们将深入研究无监督学习算法。 特别是,我们将考虑一种聚类算法 — k-均值。

· 3 1178
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十三部分):批次常规化
神经网络变得轻松(第十三部分):批次常规化

在上一篇文章中,我们开始研究旨在提高神经网络训练品质的方法。 在本文中,我们将继续这个主题,并会研讨另一种方法 — 批次数据常规化。

· 11 1963
Dmitriy Gizlyk
留下反馈给客户为工作 Доработка робота МТ5 на основе индикатора с открытым кодом
dma19
dma19 2021.06.11
hello dimitry. is it possible to submit a job request from you?
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十二部分):舍弃
神经网络变得轻松(第十二部分):舍弃

作为研究神经网络的下一步,我建议研究在神经网络训练过程中提高收敛性的方法。 有若干种这样的方法。 在本文中,我们将研究其中之一,名为“舍弃”。

· 5 2938
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十一部分):自 GPT 获取
神经网络变得轻松(第十一部分):自 GPT 获取

也许,GPT-3 是目前已有语言类神经网络中最先进的模型之一,它的最大变体可包含 1750 亿个参数。 当然,我们不打算在家用 PC 上创建如此庞然之物。 然而,我们可以看看在我们的操作中能够采用哪种体系解决方案,以及如何从中受益。

· 4 2782
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十部分):多目击者关注
神经网络变得轻松(第十部分):多目击者关注

我们以前曾研究过神经网络中的自关注机制。 在实践中,现代神经网络体系结构会采用多个并行的自关注线程来查找序列元素之间的各种依存关系。 我们来研究这种方法的实现,并评估其对整体网络性能的影响。

· 9 1981
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第九部分):操作归档
神经网络变得轻松(第九部分):操作归档

我们已经经历了很长一段路,并且函数库中的代码越来越庞大。 这令跟踪所有连接和依赖性变得难以维护。 因此,我建议为先前创建的代码创建文档,并保持伴随每个新步骤进行更新。 正确准备的文档将有助我们看到操作的完整性。

· 7 1316
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第八部分):关注机制
神经网络变得轻松(第八部分):关注机制

在之前的文章中,我们已经测试了组织规划神经网络的各种选项。 我们还研究了自图像处理算法中借鉴而来的卷积网络。 在本文中,我建议研究关注机制,它的出现为开发语言模型提供了动力。

· 5 1615