トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 728 1...721722723724725726727728729730731732733734735...3399 新しいコメント Mihail Marchukajtes 2018.03.04 19:52 #7271 そして、総括する。興味深い事実が確認された。両モデルとも40レコードの同じ領域で学習させた。しかし、VFが高いモデルは低いモデルよりも悪い結果を示し、VFが小さい2番目のモデルで、このモデルに対して高いトレーニングの結果は、ちょうどこの領域で入力データがあまりにもよく出力とモデルを説明するので、モデルに負荷を与えるために、いわばトレーニング間隔を増加させたという事実に接続します VERY GOOD.さて、次は哲学の話ですが...。 ICSの軸に沿ったスケールを想像してください。この尺度はデータセットごとに異なり、この尺度のどこかに境界線があり、右側がオーバートレーニングのゾーン、左側がアンダートレーニングのゾーンとなる縦線が あるのです。最適化アルゴリズムの課題は、アンダートレーニングの側からこの境界線にできるだけ近づき、この境界線を飛び越えないようにすることです。そして、アルゴリズムがこのゾーンに近づくほど、過学習の境界の左側にありながら、過学習が少なくなる。テキストで表現するのは難しいとは思いますが、試してみてください......。実はこのテーマには、ゾーンを使った理論があるんです。そう単純な話ではないのですが、そんなことはどうでもよくて......。 この境界を厳密に見なければ、モデル学習は、過小学習と過大学習の最適なバランスに帰着する。つまり、ある程度のバランスが必要なのです。モデルの話に戻ります。それは、出力と一致したため、入力データをよく学習しました BUTそれは、モデルがよりよくフィットし、より悪い結果を生成することができたが、フィードバックの決定的なことができた追加パターンで、ほんの数多くのパターンを学習することができたので、モデルにフィードバックを与えることはできませんでした。 つまり、モデルがデータをうまく学習しすぎた場合、学習期間を長くしてモデルに過大な負荷をかける必要がある。 レシェトフの分類によると は77-80%(VI 0.86)、2番目は88-90%(VI 0.65)の汎化率であった。最適な一般化レベルは75-85%です。 Evgeny Belyaev 2018.03.04 20:22 #7272 ミハイル・マルキュカイツそして、総括する。興味深い事実が確認された。両モデルとも40レコードの同じ領域で学習させた。しかし、VIが 高いモデルは、VIが低いモデルよりも悪い学習結果を示した、IVIとは?推測だけど時間間隔。 夜叉の言葉:軍事出版。 Mihail Marchukajtes 2018.03.04 20:32 #7273 エフゲニー・ベリャーエフVIとは?一目でわかるかもしれませんね。時代なんです。 ヤシャがヒントをくれたのは、軍の出版社 だ。相互情報量......。 Maxim Dmitrievsky 2018.03.04 20:38 #7274 もう一度言いますが、暴落している人は、非常に短い時間間隔で、非常に少ない、代表的でない数のトレードでカーバフィッティングを行っています。 それは機械学習のためでもなく、「面白くてユーモアがある」ためです :) ふるい(失礼、sieve : )に水を運び続けて、本当の口座に利益がないことに素直に驚いているのです。 まあ、少なくとも1000回トレードして、たまにCBで最初の10回だけうまくいくのを不思議に思って、ふるいにかけてください。 Mihail Marchukajtes 2018.03.04 20:55 #7275 マキシム・ドミトリエフスキーもう一度言いますが、暴落している人は、非常に短い時間間隔で、非常に少ない、代表的でない数のトレードでカーバフィッティングを行っています。 それは機械学習のためでもなく、「面白くてユーモアがある」ためです :) Sieve(失礼、ふるい)に水を運び続けて、本当の口座で利益が出ないことに素直に驚いている。 まあ、少なくとも1000件の取引を行い、その後、なぜ最初の10件だけが時々CBでうまく機能するのか、あなたのふるいを修正してください。期待して待ちましょう...。15分足に関しては、1ヶ月で70回以上のトレードは 決して短い時間軸ではありません。 結果が口座に振り込まれた時の歌声を見てみよう......。 ただ、人に道具を与えても、それを些細なものと考えて正しく使うことができないかもしれない......ということが改めて証明されたわけです。 Maxim Dmitrievsky 2018.03.04 20:58 #7276 ミハイル・マルキュカイツ期待して待ちましょう...。15分足で70回以上のトレードに 取り組む1ヶ月は、決して短い時間軸ではありません。 結果が口座に振り込まれたら、どんな歌声を聞かせてくれるかな......。 なぜみなさんが自分の体験に反応するのが遅いのか理解できません :) 私はこのプログラムを、あなたがいろいろな場所に持っていこうとするよりも10倍も短く書きました Mihail Marchukajtes 2018.03.04 21:08 #7277 マキシム・ドミトリエフスキー 神様、どうして皆さんは自分の体験に反応するのが遅いのでしょうか :) このプログラムは、あなたがいろいろな場所に配置しようとしているよりも、書くのに10倍も時間がかからないのです。お好きなように、再教育しないことが最大のポイントです。いずれにせよ、十分に一般化できるのですが、Rのネットワークまで手が回らないので、比較対象がありません。 私はいつも、あなたのAIとレシェトフのオプティマイザーモデルを比較するテストを提案しています。しかし、誰もそのリスクを取らなかった。おそらく、負ける予感がしたのでしょう...。 Maxim Dmitrievsky 2018.03.04 21:13 #7278 ミハイル・マルキュカイツお好きなように、再教育しないことが最大のポイントです。いずれにせよ、十分に一般化できるのですが、Rのネットワークまで手が回らないので、比較対象がありません。 私はいつも、あなたのAIとレシェトフのオプティマイザーモデルを比較するテストを提案しています。しかし、誰もそのリスクを取らなかった。おそらく、負ける予感がしたんでしょうね...。 ただ、少なくとも1000回トレードして、そのうち10回はリアルでOOSで利益が出るようなテストはできないと言ってください。そして、あなたがやっていることはバックテストとは呼べないかもしれない、いいですか?サンプルを増やさないと、最後まで足踏みすることになる。基本的なこともわからないのに、競技をする意味があるのでしょうか? Mihail Marchukajtes 2018.03.05 07:01 #7279 マキシム・ドミトリエフスキー 少なくとも1000回トレードして、そのうち10回はリアルでOOSで利益が出るようなテストは作れないと言えばいい。でも、あなたがやっていることはバックテストですらありませんよ?サンプルを増やさないと、最後まで足踏みすることになる。基本的なこともわからないのに、何かを競うことに何の意味があるのでしょうか。マクシムカ ヒステリーを起こすな深呼吸して...。息を吐いて、また吐いて...。息を吐きながら......今度は信号を見るんだ......。最もクールな証明は... Grigoriy Chaunin 2018.03.05 07:14 #7280 なんてヒステリックなんだ。) 自分のケースを言われているのです。長く伸びた歴史の上で、フォワードテストをして、それから何か話そう。ネットワークを学習さ せる場合、学習用サンプルとテスト用サンプルに分けられる。ほぼ100%の確率で、あなたのシグナルは損失を示すと断言できます。0.0000000001%の確率でうまくいきます。 1...721722723724725726727728729730731732733734735...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そして、総括する。興味深い事実が確認された。両モデルとも40レコードの同じ領域で学習させた。しかし、VFが高いモデルは低いモデルよりも悪い結果を示し、VFが小さい2番目のモデルで、このモデルに対して高いトレーニングの結果は、ちょうどこの領域で入力データがあまりにもよく出力とモデルを説明するので、モデルに負荷を与えるために、いわばトレーニング間隔を増加させたという事実に接続します VERY GOOD.さて、次は哲学の話ですが...。
ICSの軸に沿ったスケールを想像してください。この尺度はデータセットごとに異なり、この尺度のどこかに境界線があり、右側がオーバートレーニングのゾーン、左側がアンダートレーニングのゾーンとなる縦線が あるのです。最適化アルゴリズムの課題は、アンダートレーニングの側からこの境界線にできるだけ近づき、この境界線を飛び越えないようにすることです。そして、アルゴリズムがこのゾーンに近づくほど、過学習の境界の左側にありながら、過学習が少なくなる。テキストで表現するのは難しいとは思いますが、試してみてください......。実はこのテーマには、ゾーンを使った理論があるんです。そう単純な話ではないのですが、そんなことはどうでもよくて......。
この境界を厳密に見なければ、モデル学習は、過小学習と過大学習の最適なバランスに帰着する。つまり、ある程度のバランスが必要なのです。モデルの話に戻ります。それは、出力と一致したため、入力データをよく学習しました BUTそれは、モデルがよりよくフィットし、より悪い結果を生成することができたが、フィードバックの決定的なことができた追加パターンで、ほんの数多くのパターンを学習することができたので、モデルにフィードバックを与えることはできませんでした。
つまり、モデルがデータをうまく学習しすぎた場合、学習期間を長くしてモデルに過大な負荷をかける必要がある。
レシェトフの分類によると
は77-80%(VI 0.86)、2番目は88-90%(VI 0.65)の汎化率であった。最適な一般化レベルは75-85%です。
そして、総括する。興味深い事実が確認された。両モデルとも40レコードの同じ領域で学習させた。しかし、VIが 高いモデルは、VIが低いモデルよりも悪い学習結果を示した、I
VIとは?推測だけど時間間隔。
夜叉の言葉:軍事出版。
VIとは?一目でわかるかもしれませんね。時代なんです。
ヤシャがヒントをくれたのは、軍の出版社 だ。
相互情報量......。
もう一度言いますが、暴落している人は、非常に短い時間間隔で、非常に少ない、代表的でない数のトレードでカーバフィッティングを行っています。
それは機械学習のためでもなく、「面白くてユーモアがある」ためです :)
ふるい(失礼、sieve : )に水を運び続けて、本当の口座に利益がないことに素直に驚いているのです。
まあ、少なくとも1000回トレードして、たまにCBで最初の10回だけうまくいくのを不思議に思って、ふるいにかけてください。もう一度言いますが、暴落している人は、非常に短い時間間隔で、非常に少ない、代表的でない数のトレードでカーバフィッティングを行っています。
それは機械学習のためでもなく、「面白くてユーモアがある」ためです :)
Sieve(失礼、ふるい)に水を運び続けて、本当の口座で利益が出ないことに素直に驚いている。
まあ、少なくとも1000件の取引を行い、その後、なぜ最初の10件だけが時々CBでうまく機能するのか、あなたのふるいを修正してください。期待して待ちましょう...。15分足に関しては、1ヶ月で70回以上のトレードは 決して短い時間軸ではありません。
結果が口座に振り込まれた時の歌声を見てみよう......。
ただ、人に道具を与えても、それを些細なものと考えて正しく使うことができないかもしれない......ということが改めて証明されたわけです。
期待して待ちましょう...。15分足で70回以上のトレードに 取り組む1ヶ月は、決して短い時間軸ではありません。
結果が口座に振り込まれたら、どんな歌声を聞かせてくれるかな......。
神様、どうして皆さんは自分の体験に反応するのが遅いのでしょうか :) このプログラムは、あなたがいろいろな場所に配置しようとしているよりも、書くのに10倍も時間がかからないのです。
お好きなように、再教育しないことが最大のポイントです。いずれにせよ、十分に一般化できるのですが、Rのネットワークまで手が回らないので、比較対象がありません。
私はいつも、あなたのAIとレシェトフのオプティマイザーモデルを比較するテストを提案しています。しかし、誰もそのリスクを取らなかった。おそらく、負ける予感がしたのでしょう...。
お好きなように、再教育しないことが最大のポイントです。いずれにせよ、十分に一般化できるのですが、Rのネットワークまで手が回らないので、比較対象がありません。
私はいつも、あなたのAIとレシェトフのオプティマイザーモデルを比較するテストを提案しています。しかし、誰もそのリスクを取らなかった。おそらく、負ける予感がしたんでしょうね...。
少なくとも1000回トレードして、そのうち10回はリアルでOOSで利益が出るようなテストは作れないと言えばいい。でも、あなたがやっていることはバックテストですらありませんよ?サンプルを増やさないと、最後まで足踏みすることになる。
マクシムカ ヒステリーを起こすな深呼吸して...。息を吐いて、また吐いて...。息を吐きながら......今度は信号を見るんだ......。最もクールな証明は...