市場のエチケット、あるいは地雷原でのマナー - ページ 23 1...161718192021222324252627282930...104 新しいコメント 削除済み 2009.05.15 11:44 #221 興味はNSそのものではなく、本当に同じで、ただ、活性化関数が違うとか、そういうことなのですが...。(JOONEはいろいろな機能が満載なのに、テストすると不具合が出るのが残念です......)。入力信号の品質、学習プロセス、出力への関心 削除済み 2009.05.15 11:53 #222 Neutron писал(а)>> さあ、アイデアを出してください - 話し合いましょう 何を入れるのが有望か。- マスコット? あ、もう入力に全力を注いでいます...。:)よし、全部話すぞ。 私はすでに一度、遺伝学が好きだと言っていますが、それは、OROにとって、どのようなネットワーク動作が最適であるべきかという問いが、非常にオープンなものだからです。 新しいバーができるたびにネットワークに問い合わせ、それに応じて対応することになっていたのです。だから、私は何かを書き、平均値やストキャスティクスなど、神様が送ってくれたものを選んで入力し、スタートさせました。そして今、グリッドは素晴らしい働きをすることがわかりました。グレイルを描きます(もちろんすぐには描けませんが、グレイルの前に学習します)...。 0シフターで使えるインジケーターはあまりなく、描画のためにバー全体を必要とするのが失敗でした。実は、まだ存在しないバーからグリッドにデータを送り込み、その結果、未来を見ていたのです。 それ以来、入力データには苦労しています。でも、学習が有効であることを自分で発見したのです :) Neutron 2009.05.15 11:56 #223 YDzh писал(а)>> 興味はNSそのものではなく、活性化関数が違うとか、そういうことだけで、本当に同じなんです。さらに、活性化関数(その特定の型)にも、学習方法(それが正しく実行されているかどうか)にも、何も依存しないのです 何を予測するかによりますね。そこがポイントであり、肝心なところです。 この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。 NSの指導で「将来を見据える」ことについては、誰もが経験したことだと思いますが...。 Sergey Fionin 2009.05.15 12:19 #224 Neutron писал(а)>> 何を予測するかによりますね。そこがポイントであり、肝心なところです。 この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。 NSのトレーニングで「将来を見据える」ことについては、誰もが経験したことだと思いますが...。 まあ、見方にもよりますが。棒グラフは平均値です。最小のバーは1分であり、それは現在の分より前にあるすべてのものがすでにある程度平均化されていることを意味します。 削除済み 2009.05.15 12:25 #225 Neutron писал(а)>> 何を予測するかによりますね。そこがポイントです。 この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。 NSのトレーニングで「将来を見据える」ことについては、誰もが経験したことですが...。 そうだとしたら......指標に触れる意味はまったくないですね。これらはすべて、何らかの形でデータの集積の上に成り立っている。時間、数量、価格を除いては、一次データはありません。じゃあ、ティックレベルまで下げないと...。しかし、そこには「ノイズが多い」。パラドックス... Neutron 2009.05.15 12:33 #226 YDzh писал(а)>> まあ、そうであれば、指標に触れる意味が全くないわけですが。これらはすべて、何らかの形でデータの集積の上に成り立っている。時間、数量、価格以外には、一次データはありません。じゃあ、ティックレベルまで下げないと...。しかし、そこには「ノイズが多い」。パラドックス... 本当だ!ただし、大騒ぎすることはない。スープは別にあるのだ。 バーについては、私は始値のみを使用し、平均化はしていません。私の計画では、賢者プライヴァルが言うように、ティックのみを使用する予定です。ただし、保存モードとデータ収集には手こずることになりそうです。でも、それだけの価値があるのなら、いいじゃないですか。 paralocus 2009.05.15 12:42 #227 よし、ウェイトの修正まではこれでいこう!」と思いました。 for(int i = cikl; i >= 0; i--) { out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций SquareCorrection2[1] += Correction2[1] * Correction2[1]; Correction2[2] += d_2_in * D2[2]; SquareCorrection2[2] += Correction2[2] * Correction2[2]; d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя for (int k = 0; k < 17; k++) {---------------------------------------------------------------// Сууммируем микрокоррекции для входов Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона SquareCorrection11[k] += Correction11[k] * Correction11[k]; } for (k = 0; k < 17; k++) {---------------------------------------------------------------// Суммируем микрокоррекции для входов Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона SquareCorrection12[k] += Correction12[k] * Correction12[k]; } } Market etiquette or good paralocus 2009.05.15 13:14 #228 念のため、コードを載せておきます。 NeuroNet_1 は、空のグリッドの学習用 EA です。 NeroLite_maは2層パーセプトロンで、実はN層まで簡単に拡張できる -:) ファイル: nerolite_ma.mqh 3 kb neuronet_1.mq4 5 kb 削除済み 2009.05.15 13:24 #229 Neutron писал(а)>> それが真実だ!ただ、騒がないでくださいね。スープは別腹です。 バーについては、私は始値のみを使用し、平均化はしていません。そして、賢明なプライヴァルがすること、それはティックに切り替えることです。ただし、保存モードとデータ収集には手こずることになりそうです。でも、それだけの価値があるのなら、いいじゃないですか。 騒がない :)チックの有用性は文献上でも認められていますが...。カオス理論の香りがする。その価値があるかどうかについては...。その価値はあるのか?そして、プライヴァルはどこに助言しているのでしょうか? また、初値の結果はどうでしょうか?意味もなく回帰分析で遊んだりしています。そして、高値と安値は建値よりもはるかに予測しやすいことが判明した...。そんなに不思議なことではないのですが......。 paralocus 2009.05.15 13:58 #230 YDzh >> : そして、プライヴァルはどこにそのことを助言しているのでしょうか? ...>> どこもかしこも!トイレが賢い! 1...161718192021222324252627282930...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
さあ、アイデアを出してください - 話し合いましょう
何を入れるのが有望か。- マスコット?
あ、もう入力に全力を注いでいます...。:)よし、全部話すぞ。
私はすでに一度、遺伝学が好きだと言っていますが、それは、OROにとって、どのようなネットワーク動作が最適であるべきかという問いが、非常にオープンなものだからです。
新しいバーができるたびにネットワークに問い合わせ、それに応じて対応することになっていたのです。だから、私は何かを書き、平均値やストキャスティクスなど、神様が送ってくれたものを選んで入力し、スタートさせました。そして今、グリッドは素晴らしい働きをすることがわかりました。グレイルを描きます(もちろんすぐには描けませんが、グレイルの前に学習します)...。
0シフターで使えるインジケーターはあまりなく、描画のためにバー全体を必要とするのが失敗でした。実は、まだ存在しないバーからグリッドにデータを送り込み、その結果、未来を見ていたのです。
それ以来、入力データには苦労しています。でも、学習が有効であることを自分で発見したのです :)
興味はNSそのものではなく、活性化関数が違うとか、そういうことだけで、本当に同じなんです。さらに、活性化関数(その特定の型)にも、学習方法(それが正しく実行されているかどうか)にも、何も依存しないのです
何を予測するかによりますね。そこがポイントであり、肝心なところです。
この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。
NSの指導で「将来を見据える」ことについては、誰もが経験したことだと思いますが...。
何を予測するかによりますね。そこがポイントであり、肝心なところです。
この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。
NSのトレーニングで「将来を見据える」ことについては、誰もが経験したことだと思いますが...。
まあ、見方にもよりますが。棒グラフは平均値です。最小のバーは1分であり、それは現在の分より前にあるすべてのものがすでにある程度平均化されていることを意味します。
何を予測するかによりますね。そこがポイントです。
この場合のBPは、第一差分系列(価格系列がまさにそう)の反存在特性を持つBP予測にとって克服できない障害であることを厳密に示すことができるのです。
NSのトレーニングで「将来を見据える」ことについては、誰もが経験したことですが...。
そうだとしたら......指標に触れる意味はまったくないですね。これらはすべて、何らかの形でデータの集積の上に成り立っている。時間、数量、価格を除いては、一次データはありません。じゃあ、ティックレベルまで下げないと...。しかし、そこには「ノイズが多い」。パラドックス...
まあ、そうであれば、指標に触れる意味が全くないわけですが。これらはすべて、何らかの形でデータの集積の上に成り立っている。時間、数量、価格以外には、一次データはありません。じゃあ、ティックレベルまで下げないと...。しかし、そこには「ノイズが多い」。パラドックス...
本当だ!ただし、大騒ぎすることはない。スープは別にあるのだ。
バーについては、私は始値のみを使用し、平均化はしていません。私の計画では、賢者プライヴァルが言うように、ティックのみを使用する予定です。ただし、保存モードとデータ収集には手こずることになりそうです。でも、それだけの価値があるのなら、いいじゃないですか。
よし、ウェイトの修正まではこれでいこう!」と思いました。
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет
d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона
Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];
d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя
for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}
for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
念のため、コードを載せておきます。
NeuroNet_1 は、空のグリッドの学習用 EA です。
NeroLite_maは2層パーセプトロンで、実はN層まで簡単に拡張できる -:)
それが真実だ!ただ、騒がないでくださいね。スープは別腹です。
バーについては、私は始値のみを使用し、平均化はしていません。そして、賢明なプライヴァルがすること、それはティックに切り替えることです。ただし、保存モードとデータ収集には手こずることになりそうです。でも、それだけの価値があるのなら、いいじゃないですか。
騒がない :)チックの有用性は文献上でも認められていますが...。カオス理論の香りがする。その価値があるかどうかについては...。その価値はあるのか?そして、プライヴァルはどこに助言しているのでしょうか?
また、初値の結果はどうでしょうか?意味もなく回帰分析で遊んだりしています。そして、高値と安値は建値よりもはるかに予測しやすいことが判明した...。そんなに不思議なことではないのですが......。
そして、プライヴァルはどこにそのことを助言しているのでしょうか?
...>> どこもかしこも!トイレが賢い!