Спасибо, Владимир!серия отличная, инструменты, представленные, действительно полезны.Я экспериментировал по некоторым показателям, результат более или менее, в целом немного лучше.Я попробовал вход "bin" для darch, он похож на "горький", в то время как "dum" плохой.возможно, слишком много вода не очень хорошо.
Tensorflow" звучит многообещающе.не могу дождаться статьи!
OneR is the main function of the package. It builds a model according to the One Rule machine learning algorithm for categorical data. All numerical data is automatically converted into five categorical bins of equal length. When verbose is TRUE it gives the predictive accuracy of the attributes in decreasing order. bin bin discretizes all...
您好,
另一个问题。
为什么将训练分为两个阶段:
1 预训练,然后只训练 DNN 顶层
,
2 精细学习整个网络?
如果我们将第 1 阶段扩展为
预训练 + 同时对整个网络进行精细学习
(即设置 rbm.lastLayer = 0,bp.learnRate = 1,darch.trainLayers = T),不经过第 2 阶段不也能得到同样的结果吗?
更新。我做了一个实验:(红色 表示代码中的改动)
evalq({
require(darch)
require(dplyr)
require(magrittr)
Ln <- c(0, 16, 8, 0)
nEp_0 <- 25
#------------------
par_0 <- list(
layers = Ln,
seed = 54321,
logLevel = 5,
# params RBM========================
rbm.consecutive = F, # each RBM is trained one epoch at a time
rbm.numEpochs = nEp_0,
rbm.batchSize = 50,
rbm.allData = TRUE,
rbm.lastLayer = 0,
rbm.learnRate = 0.3,
rbm.unitFunction = "tanhUnitRbm",
# params NN ========================
darch.batchSize = 50,
darch.numEpochs = nEp_0,
darch.trainLayers = T,
darch.unitFunction = c("tanhUnit","maxoutUnit", "softmaxUnit"),
bp.learnRate = 1,
bp.learnRateScale = 1,
darch.weightDecay = 0.0002,
darch.dither = F,
darch.dropout = c(0.1,0.2,0.1),
darch.fineTuneFunction = backpropagation, #rpropagation
normalizeWeights = T,
normalizeWeightsBound = 1,
darch.weightUpdateFunction = c("weightDecayWeightUpdate",
"maxoutWeightUpdate",
"weightDecayWeightUpdate"),
darch.dropout.oneMaskPerEpoch = T,
darch.maxout.poolSize = 2,
darch.maxout.unitFunction = "linearUnit")
#---------------------------
DNN_default <- darch(darch = NULL,
paramsList = par_0,
x = DTcut$pretrain$woe %>% as.data.frame(),
y = DTcut$pretrain$raw$Class %>% as.data.frame(),
xValid = DTcut$val$woe %>% as.data.frame(),
yValid = DTcut$val$raw$Class %>% as.data.frame()
)
}, env)
有了:
你在第二步之后有了。
即验证部分的误差是相同的,即 30%。
在此之前,我用
yValid = DTcut$train$raw$Class %>% as.data.frame()
和步骤 1 的代码一样,结果是
可能只是DTcut$val 集比 DTcut$train 集好,所以我 的 一步和你的 两步显示了 同样好的 结果。
出现了另一个问题 )
在 2014 年的文章中,您通过 svSocket 使用不同的端口连接 R,以便在不同的窗口上运行 Expert Advisor。
现在还有必要这样做吗?
最新的文章中没有使用。我在不同的窗口上运行了 Expert Advisor(在相同的符号上,但使用不同的 EA 参数),它调用了不同的 RTerm 线程,从结果来看--似乎是各司其职。但有一个疑问 - 如果有必要按端口分开呢?
出现了另一个问题 )
在 2014 年的文章中,您通过 svSocket 使用不同的端口连接 R,以便在不同的窗口上运行 Expert Advisor。
现在也有必要这样做吗?
最新的文章中没有使用。我在不同的窗口上运行了 Expert Advisor(在相同的符号上,但使用不同的 EA 参数),它调用了不同的 RTerm 线程,从结果来看--似乎是各司其职。但有一个疑问 - 如果有必要按端口分开呢?
下午好。
我正在路上,所以长话短说。
在第一篇文章中,我使用了客户端-服务器变体。这是一个有趣的选择,但现在有了新的解决方案。因此,没有必要将任何东西分开。每个 Rterm 进程都在自己的沙盒中运行。
祝好运
下午好。
我现在在路上,所以长话短说。
在前几篇文章中,我使用了客户端-服务器变体。这是一个有趣的选择,但现在有了新的解决方案。因此,没有必要将任何东西分开。每个 Rterm 进程都在自己的沙盒中运行。
祝好运
亲爱的好日子,有趣的文章是你的新 4,我有一个问题,你可以实现一个顾问,根据这篇文章,其中描述,当然付款将,技术任务都会给,我正在寻找神经元卡培训下的目标,如果是的话,写到 LS 那里,我们将讨论。如果您没有从事此类工作,那么也许您可以告诉我,在 MT5 下实施智能交易系统需要向谁求助。
谢谢你,弗拉基米尔!这套丛书很棒,介绍的工具很有帮助。我对一些指数进行了实验,结果或多或少,总体上略有改善。我试过 darch 的 "bin "输入法,与 "woe "很相似,而 "dum "则很糟糕。
"Tensorflow "软件包听起来很有前途,我等不及要看文章了!
Спасибо, Владимир!серия отличная, инструменты, представленные, действительно полезны.Я экспериментировал по некоторым показателям, результат более или менее, в целом немного лучше.Я попробовал вход "bin" для darch, он похож на "горький", в то время как "dum" плохой.возможно, слишком много вода не очень хорошо.
Tensorflow" звучит многообещающе.не могу дождаться статьи!
哦。文章的最后三部分差不多准备好了。也许在新年之前,我就有时间传给大家验证了。
祝您好运
非常感谢你的系列文章,我一直在跟踪学习,可是因为我知识结构的局限,理解这些文章不是件容易的事情。
Благодарим вас за использование моего пакета OneR.DNN не намного лучше, чем модель OneR!
这只适用于使用默认参数 的 DNN。在优化超参数的情况下,DNN 的结果要好得多。请参见第五部分。
祝您好运
这只适用于使用默认参数的 DNN。使用优化的超参数,DNN 会显示出更好的结果。请参见第五部分。
祝好运