Dmitriy Gizlyk
Dmitriy Gizlyk
4.4 (50)
  • 信息
12+ 年
经验
0
产品
0
演示版
134
工作
0
信号
0
订阅者
X
任何的MT4和MT5複雜專業寫作計劃。
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十六部分):聚类运用实践
神经网络变得轻松(第十六部分):聚类运用实践

在上一篇文章中,我们为数据聚类创建了一个类。 在本文中,我想分享在解决实际交易任务时应用所获结果会遇到的可能变体。

· 4 1069
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十五部分):利用 MQL5 进行数据聚类
神经网络变得轻松(第十五部分):利用 MQL5 进行数据聚类

我们继续研究聚类方法。 在本文中,我们将创建一个新的 CKmeans 类来实现最常见的聚类方法之一:k-均值。 在测试期间,该模型成功地识别了大约 500 种形态。

· 3 1419
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十四部分):数据聚类
神经网络变得轻松(第十四部分):数据聚类

我的上一篇文章已经发表一年多了。 这令我有了大量时间考虑修改思路和发展新方法。 在这篇新文章中,我想转移一下以前使用的监督学习方法。 这次我们将深入研究无监督学习算法。 特别是,我们将考虑一种聚类算法 — k-均值。

· 3 1652
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十三部分):批次常规化
神经网络变得轻松(第十三部分):批次常规化

在上一篇文章中,我们开始研究旨在提高神经网络训练品质的方法。 在本文中,我们将继续这个主题,并会研讨另一种方法 — 批次数据常规化。

· 11 2454
Dmitriy Gizlyk
留下反馈给客户为工作 Доработка робота МТ5 на основе индикатора с открытым кодом
dma19
dma19 2021.06.11
hello dimitry. is it possible to submit a job request from you?
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十二部分):舍弃
神经网络变得轻松(第十二部分):舍弃

作为研究神经网络的下一步,我建议研究在神经网络训练过程中提高收敛性的方法。 有若干种这样的方法。 在本文中,我们将研究其中之一,名为“舍弃”。

· 5 3349
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十一部分):自 GPT 获取
神经网络变得轻松(第十一部分):自 GPT 获取

也许,GPT-3 是目前已有语言类神经网络中最先进的模型之一,它的最大变体可包含 1750 亿个参数。 当然,我们不打算在家用 PC 上创建如此庞然之物。 然而,我们可以看看在我们的操作中能够采用哪种体系解决方案,以及如何从中受益。

· 4 3298
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第十部分):多目击者关注
神经网络变得轻松(第十部分):多目击者关注

我们以前曾研究过神经网络中的自关注机制。 在实践中,现代神经网络体系结构会采用多个并行的自关注线程来查找序列元素之间的各种依存关系。 我们来研究这种方法的实现,并评估其对整体网络性能的影响。

· 9 2373
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第九部分):操作归档
神经网络变得轻松(第九部分):操作归档

我们已经经历了很长一段路,并且函数库中的代码越来越庞大。 这令跟踪所有连接和依赖性变得难以维护。 因此,我建议为先前创建的代码创建文档,并保持伴随每个新步骤进行更新。 正确准备的文档将有助我们看到操作的完整性。

· 7 1584
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第八部分):关注机制
神经网络变得轻松(第八部分):关注机制

在之前的文章中,我们已经测试了组织规划神经网络的各种选项。 我们还研究了自图像处理算法中借鉴而来的卷积网络。 在本文中,我建议研究关注机制,它的出现为开发语言模型提供了动力。

· 5 2208
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第七部分):自适应优化方法
神经网络变得轻松(第七部分):自适应优化方法

在之前的文章中,我们利用随机梯度下降法针对网络中的所有神经元按照相同的学习率训练神经网络。 在本文中,我提议着眼于自适应学习方法,该方法能够改变每个神经元的学习率。 我们还将研究这种方法的利弊。

· 5 2022
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第六部分):神经网络学习率实验
神经网络变得轻松(第六部分):神经网络学习率实验

我们之前已研究过各种类型的神经网络及其实现。 在所有情况下,训练神经网络时都使用梯度下降法,为此我们需要选择学习率。 在本文中,我打算通过示例展示正确选择学习率的重要性,及其对神经网络训练的影响。

· 5 2718
Dmitriy Gizlyk
留下反馈给客户为工作 Переделать существующий индикатор
Dmitriy Gizlyk
留下反馈给客户为工作 Develop EA of a modified version of London Breakout Strategy
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第五部分):OpenCL 中的多线程计算
神经网络变得轻松(第五部分):OpenCL 中的多线程计算

我们早前已经讨论过某些类型的神经网络实现。 在所研究的网络中,每个神经元都重复相同的操作。 逻辑上进一步应利用现代技术提供的多线程计算功能来加快神经网络学习过程。 本文介绍了一种可能的实现方式。

· 4 2592
lam shoul
lam shoul 2022.07.20
Hi
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第四部分):循环网络
神经网络变得轻松(第四部分):循环网络

我们继续研究神经网络的世界。 在本文中,我们将研究另一种类型的神经网络,循环网络。 此类型建议与时间序列配合使用,其在 MetaTrader 5 交易平台中由价格图表呈现。

· 5 2596
java2python
java2python 2022.07.04
good
Dmitriy Gizlyk
留下反馈给客户为工作 A Price Box Indicator based on 2-Days Time Frame
Dmitriy Gizlyk
留下反馈给客户为工作 Сконвертировать советник из mql4 в mql5
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第三部分):卷积网络
神经网络变得轻松(第三部分):卷积网络

作为神经网络主题的延续,我建议研究卷积神经网络。 这种类型的神经网络通常用来分析视觉成像。 在本文中,我们将研究这种网络在金融市场中的应用。

· 5 3095
Dmitriy Gizlyk
已发布文章神经网络变得轻松(第二部分):网络训练和测试
神经网络变得轻松(第二部分):网络训练和测试

在第二篇文章中,我们将继续研究神经网络,并研究在智能交易系统当中调用我们所创建 CNet 类的示例。 我们将操控两个神经网络模型,它们在训练时间和预测准确性方面都表现出相似的结果。

· 6 4300