Басибо、Владимир!このような素晴らしい機会を与えてくれてありがとうございます。Я экспериментировал по некоторым показателям, результат боле или менее, в целом немного лучше.Я попробовал вход "bin" для darch, он похож на "горький", в то время как "dum" плохой.возможно, слишком много ввода не очень хорошо.
Tensorflow "は、"TensorFlow "と呼ばれています。не могу дождаться статьи!
OneR is the main function of the package. It builds a model according to the One Rule machine learning algorithm for categorical data. All numerical data is automatically converted into five categorical bins of equal length. When verbose is TRUE it gives the predictive accuracy of the attributes in decreasing order. bin bin discretizes all...
こんにちは、
もうひとつ質問です。
なぜトレーニングは2つのステージに分かれているのでしょうか?
1つはプリトレイン、そしてDNNの最上位レイヤーのみをトレーニング
と
2つはネットワーク全体をファイン・ラーニングするのでしょうか?
第1段階を拡張して、
事前学習+ネットワーク全体の精密学習を同時に行う
(すなわち、rbm.lastLayer = 0、bp.learnRate = 1、darch.trainLayers = T)にすれば、第2段階がなくても同じ結果が得られるのではないでしょうか?
更新実験をセットアップしてみた:(赤字は コードの変更点)
evalq({
require(darch)
require(dplyr)
require(magrittr)
Ln <- c(0, 16, 8, 0)
nEp_0 <- 25
#------------------
par_0 <- list(
layers = Ln,
seed = 54321,
logLevel = 5,
# params RBM========================
rbm.consecutive = F, # each RBM is trained one epoch at a time
rbm.numEpochs = nEp_0,
rbm.batchSize = 50,
rbm.allData = TRUE,
rbm.lastLayer = 0,
rbm.learnRate = 0.3,
rbm.unitFunction = "tanhUnitRbm",
# params NN ========================
darch.batchSize = 50,
darch.numEpochs = nEp_0,
darch.trainLayers = T,
darch.unitFunction = c("tanhUnit","maxoutUnit", "softmaxUnit"),
bp.learnRate = 1,
bp.learnRateScale = 1,
darch.weightDecay = 0.0002,
darch.dither = F,
darch.dropout = c(0.1,0.2,0.1),
darch.fineTuneFunction = backpropagation, #rpropagation
normalizeWeights = T,
normalizeWeightsBound = 1,
darch.weightUpdateFunction = c("weightDecayWeightUpdate",
"maxoutWeightUpdate",
"weightDecayWeightUpdate"),
darch.dropout.oneMaskPerEpoch = T,
darch.maxout.poolSize = 2,
darch.maxout.unitFunction = "linearUnit")
#---------------------------
DNN_default <- darch(darch = NULL,
paramsList = par_0,
x = DTcut$pretrain$woe %>% as.data.frame(),
y = DTcut$pretrain$raw$Class %>% as.data.frame(),
xValid = DTcut$val$woe %>% as.data.frame(),
yValid = DTcut$val$raw$Class %>% as.data.frame()
)
}, env)
が得られました:
2番目のステップの後です。
つまり、検証セクションのエラーは同じ、つまり30%です。
その前に
yValid = DTcut$train$raw$Class %>% as.data.frame()
で試してみた:
DTcut$valセットがDTcut$train セットより優れて いるだけで、 私の1ステップでもあなたの2ステップと同じ良い結果を示した 可能性があります。
2014年の記事では、異なるウィンドウ上でExpert Advisorを実行するために、svSocket経由でRへの接続に異なるポートを使用していました。
現在もそうする必要があるのでしょうか?
最新の記事では使用されていません。異なるウィンドウでExpert Advisorを実行したところ(同じシンボルで、異なるEAパラメータで)、異なるRTermスレッドが呼び出されました。しかし、疑問があります - ポートによって分離する必要がある場合はどうなりますか?
2014年の記事では、異なるウィンドウ上でExpert Advisorを実行するために、svSocket経由でRへの接続に異なるポートを使用していました。
現在もそうする必要があるのでしょうか?
最新の記事では使用されていません。異なるウィンドウでExpert Advisorを実行したところ(同じシンボルで、異なるEAパラメータで)、異なるRTermスレッドが呼び出されました。しかし、疑問があります - ポートによって分離する必要がある場合はどうなりますか?
こんにちは。
外出中なので、手短に。
最初の記事で、私はクライアント・サーバー型を使っていました。これは興味深いオプションですが、今は新しいソリューションがあります。だから、何も分ける必要はない。Rtermの各プロセスは独自のサンドボックスで動作する。
幸運を祈る。
こんにちは。
今出先なので短く書きます。
最初の記事で私はクライアント・サーバー型を使っていました。それは興味深いオプションだが、今は新しいソリューションがある。だから、何も分ける必要はない。Rtermの各プロセスは独自のサンドボックスで動作する。
幸運を祈る
親愛なる良い一日、興味深い記事はあなたの新しい4である、私は質問を持って、あなたはもちろん、支払いは、技術的なタスクのすべてが与えることになる、説明されているこの記事に従って顧問を実装することができます、私は目標の下でneuronkaの訓練を探している、はい場合は、我々は話をしますそこにLSに書き込みます。あなたは仕事のこの種に従事していない場合は、多分あなたはMT5の下にエキスパートアドバイザーの実装のために向けるために誰に私に言うことができる必要があります。
ウラジミール、ありがとう!このシリーズは素晴らしく、紹介されているツールは本当に役に立つ。いくつかの指標で実験してみたが、結果は多かれ少なかれ、全体的に少し良くなった。darchの "bin "入力を試してみましたが、"woe "に似ています。
「Tensorflow」パッケージは期待できそうだ!
Басибо、Владимир!このような素晴らしい機会を与えてくれてありがとうございます。Я экспериментировал по некоторым показателям, результат боле или менее, в целом немного лучше.Я попробовал вход "bin" для darch, он похож на "горький", в то время как "dum" плохой.возможно, слишком много ввода не очень хорошо.
Tensorflow "は、"TensorFlow "と呼ばれています。не могу дождаться статьи!
ああ。記事の最後の3つの部分はほぼ出来上がっている。たぶん新年までには、検証のために渡す時間ができるだろう。
幸運を祈る。
非常感谢你的系列文章,我一直在跟踪学习,可是因为我知识结构的局限,理解这些文章不是件容易的事情,即使这样,还是希望能不断看到您的新文章,期待您发表新文章!谢谢!。
OneR.comは、OneR.comが提供するOneR.comの最新バージョンです。DNNはOneR!
これは、DNNがデフォルトのパラメータを 持つ場合にのみ当てはまります。最適化されたハイパーパラメータでは、DNNははるかに良い結果を示す。パートVを参照。
幸運を祈る
これは、DNNがデフォルトのパラメーターを使用した場合にのみ当てはまる。最適化されたハイパーパラメータを用いると、DNNははるかに良い結果を示す。パートVを参照。
幸運を祈る。