ライブラリ: MLPニューラルネットワーククラス - ページ 2

 
elibrarius:

乗算表トレーニングの結果を比較すると、あなたのネットワークは明らかに負けている。ALGLIBでは、100エポック学習したネットワーク2,5,1(https://www.mql5.com/ru/forum/8265/page2)の 方が、1000000エポック学習したあなたのネットワークよりも良い答えを出している。100000000エポックの計算速度も満足できるものではない。

どうやら学習方法があまり効率的でないようだ。ALGLIBよりも小さなコードで理解しやすい。しかし、まだそこに移動する必要がある。

間違った比較ですが、学習用のalglibのバリアントでは100の例題がすべて表示されており、それが答えがより正しい理由です。

 

このネイティブ・ライブラリの作成に時間を割いていただき、ありがとうございます!

私は1つのホットエンコーディングを試み、隠れ層にreluを追加し、出力層の呼び出しにSoftmax関数を 追加しました。これはうまくいき、100%の結果を得ることができました。

iRpropは分類に向かないのでしょうか?iRpropは分類に適していないのでしょうか?時々変化しますが、それほどでもありません。


2つ目の質問ですが、LernメソッドではTanhとSigmodの扱いが違うようですが、その部分はまだ理解できていません。

 
この素晴らしい貢献に感謝します。パーミッシブ・エラーを判断する方法を教えていただけますか?
 
northedan:
この素晴らしい貢献に感謝します。パーミッシブ・エラーを判断する方法を教えていただけますか?
//+------------------------------------------------------------------+
//| 学ぶ|
//+------------------------------------------------------------------+
void CNetMLP::Learn(int c_npat,       // 指導パターン数
                    double &c_inp[],  // 入力データ
                    double &c_res[],  // 出力データ
                    int c_nep,        // 学習エポック数
                    double c_err)     //許容エラー