トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 586 1...579580581582583584585586587588589590591592593...3399 新しいコメント Aleksey Terentev 2018.01.18 14:56 #5851 ユーリイ・アサウレンコ だから、探してみてください))このようなMLPが最適となる。 レギュラー化とドロップアウトがあなたの全てです)。 Dmitriy Skub 2018.01.18 17:11 #5852 ユーリイ・アサウレンコ昨日、私はコンボリューションNS(通常は画像認識に使用)を見つけました。当然、トレーニングなどのユーティリティもすべて含まれます。Pythonで使用するために作られました。リカレントなどもありますが、まだあまり面白いとは言えません。畳み込みネットワークは完全にメッシュ化されていないため、性能を落とすことなくニューロン数を大幅に増やすことができます。ただ、細かいところを理解する必要があるので、まだ詳細には触れていません。 人気のある説明文 -https://geektimes.ru/post/74326/HTMをよく見てください-以前、あなたに書きました。その構造は、文脈の使用を意味しています。そして、Pythonの実装があります。 Maxim Dmitrievsky 2018.01.18 18:04 #5853 ヘイキンの非定常性についてそれは私が(だけでなく)書いたことであり、すべてはとっくに証明されているようなものです :) Dr. Trader 2018.01.18 18:36 #5854 私は、Cranリポジトリにまだない新しいバージョンのgbmパッケージがあることを偶然知っています。https://github.com/gbm-developers/gbm3のインストールが必要です。install.packages("devtools") library("devtools") install_github("gbm-developers/gbm3")その後、Rで更新されたライブラリはgbm3という名前になります。library("gbm3")rスクリプトのコードでライブラリの名前をgbmからgbm3に変更しただけで、他のコードは変更せずに動きました。 gbmモデルのパラメータを検索していると、学習時にRAMを大量に消費して、コンピュータ全体が十数分ハングアップすることがありました。この新しいバージョンでは、まだこのようなことは起こっていません。 СанСаныч Фоменко 2018.01.18 18:44 #5855 マキシム・ドミトリエフスキーヘイキンの非定常性について私が(だけでなく)、書いたことについて、そしてここで、まるですべてがすでにずっと前に証明されたかのように :)非定常性についての文章が全く理解できません。新しい観測結果の到着は、以前に明らかにされた関係を破壊するのでしょうか?私のNSに対する無知が原因かもしれませんが、ツリーで考慮される観測線はまさに1本であり、以前に構築されたツリーを破壊することは不可能なのです。将来的には発生しないかもしれない、全く同じ木が現れるかもしれない、しかしそれは違うクラスに属する、しかし古いものはすべてそのまま残る。PS.ツリーを作るときに、数行で考えるツリーがあるのですが...。が、本質には変わりないようです Maxim Dmitrievsky 2018.01.18 18:50 #5856 サンサニッチ・フォメンコ非定常性についての文章が全く理解できません。新しい観測結果の到着は、以前に特定された関係を破壊するのでしょうか?私がNSを知らないせいかもしれませんが、ツリーでは正確に1行の観測が考慮され、以前に構築されたツリーを破壊することは不可能なのです。将来的には発生しないかもしれない、全く同じ木が現れるかもしれない、しかしそれは違うクラスに属する、しかし古いものはすべてそのまま残る。PS.ツリーを作るときに、数行で考えるツリーがあるのですが...。が、論点は変わらないようです。いや、結局のところ、コンスタントに擬似静止画シリーズを作り、できる限り再学習する...これが私の基本的なやり方です。その前に,予測変数がターゲットに与える影響の変化のダイナミクスを考慮し,環境の変化に応じてフィルタ係数を介して出力を適応させる必要があると理解しています.まあ、一般的には大したことはないんですけどね。少なくともこの章では。 Alexander_K2 2018.01.18 19:50 #5857 マキシム・ドミトリエフスキーヘイキンの非定常性についてそれは私が(だけでなく)書いたことで、ここでは、すべてがずっと前から証明されているようなものです :) 明らかに、ヘイキン氏は馬鹿ではなかった。P.133の抜粋は、この事実を直接語っている。 Yuriy Asaulenko 2018.01.18 20:03 #5858 マキシム・ドミトリエフスキーヘイキンの非定常性についてそれは私が(だけでなく)書いたことで、ここでは、すべてがずっと前から証明されているようなものです :) ようやくマキシムは、でたらめを言ったり、自転車を再発明しようとしたりするのではなく、理論を読むようになったのです)。 Yuriy Asaulenko 2018.01.18 20:56 #5859 ドミトリー・スクーブHTMを見てください - 以前に書きましたね。その構造は、文脈を利用したものです。そして、Pythonでの実装があります。私たちの通信簿には何も書かれていませんでした。HTMとは何なのか?実は、2-3日前にPythonの勉強を始めたばかりなんです。まだあまり理解していない)。だから、本題に入るまでしばらく時間がかかる。 Dmitriy Skub 2018.01.19 07:49 #5860 ユーリイ・アサウレンコ私たちの通信簿には何も書かれていませんでした。HTMとは何なのか?実は、2-3日前からPythonの勉強を始めました。まだあまり理解していない)。というわけで、本題に入るのはしばらく先です。ここから、https://numenta.org/implementations/。ロシア語の本があるのですが、翻訳はほぼ適切です。 Implementations Numentanumenta.org Numenta.org • Home of the HTM Community 1...579580581582583584585586587588589590591592593...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
だから、探してみてください))このようなMLPが最適となる。
昨日、私はコンボリューションNS(通常は画像認識に使用)を見つけました。当然、トレーニングなどのユーティリティもすべて含まれます。Pythonで使用するために作られました。
リカレントなどもありますが、まだあまり面白いとは言えません。
畳み込みネットワークは完全にメッシュ化されていないため、性能を落とすことなくニューロン数を大幅に増やすことができます。ただ、細かいところを理解する必要があるので、まだ詳細には触れていません。
人気のある説明文 -https://geektimes.ru/post/74326/HTMをよく見てください-以前、あなたに書きました。その構造は、文脈の使用を意味しています。そして、Pythonの実装があります。
ヘイキンの非定常性について
それは私が(だけでなく)書いたことであり、すべてはとっくに証明されているようなものです :)
私は、Cranリポジトリにまだない新しいバージョンのgbmパッケージがあることを偶然知っています。
https://github.com/gbm-developers/gbm3
のインストールが必要です。
その後、Rで更新されたライブラリはgbm3という名前になります。
rスクリプトのコードでライブラリの名前をgbmからgbm3に変更しただけで、他のコードは変更せずに動きました。
gbmモデルのパラメータを検索していると、学習時にRAMを大量に消費して、コンピュータ全体が十数分ハングアップすることがありました。この新しいバージョンでは、まだこのようなことは起こっていません。
ヘイキンの非定常性について
私が(だけでなく)、書いたことについて、そしてここで、まるですべてがすでにずっと前に証明されたかのように :)
非定常性についての文章が全く理解できません。新しい観測結果の到着は、以前に明らかにされた関係を破壊するのでしょうか?私のNSに対する無知が原因かもしれませんが、ツリーで考慮される観測線はまさに1本であり、以前に構築されたツリーを破壊することは不可能なのです。将来的には発生しないかもしれない、全く同じ木が現れるかもしれない、しかしそれは違うクラスに属する、しかし古いものはすべてそのまま残る。
PS.
ツリーを作るときに、数行で考えるツリーがあるのですが...。が、本質には変わりないようです
非定常性についての文章が全く理解できません。新しい観測結果の到着は、以前に特定された関係を破壊するのでしょうか?私がNSを知らないせいかもしれませんが、ツリーでは正確に1行の観測が考慮され、以前に構築されたツリーを破壊することは不可能なのです。将来的には発生しないかもしれない、全く同じ木が現れるかもしれない、しかしそれは違うクラスに属する、しかし古いものはすべてそのまま残る。
PS.
ツリーを作るときに、数行で考えるツリーがあるのですが...。が、論点は変わらないようです。
いや、結局のところ、コンスタントに擬似静止画シリーズを作り、できる限り再学習する...これが私の基本的なやり方です。
その前に,予測変数がターゲットに与える影響の変化のダイナミクスを考慮し,環境の変化に応じてフィルタ係数を介して出力を適応させる必要があると理解しています.
まあ、一般的には大したことはないんですけどね。少なくともこの章では。
ヘイキンの非定常性について
それは私が(だけでなく)書いたことで、ここでは、すべてがずっと前から証明されているようなものです :)
ヘイキンの非定常性について
それは私が(だけでなく)書いたことで、ここでは、すべてがずっと前から証明されているようなものです :)
HTMを見てください - 以前に書きましたね。その構造は、文脈を利用したものです。そして、Pythonでの実装があります。
私たちの通信簿には何も書かれていませんでした。HTMとは何なのか?
実は、2-3日前にPythonの勉強を始めたばかりなんです。まだあまり理解していない)。だから、本題に入るまでしばらく時間がかかる。
私たちの通信簿には何も書かれていませんでした。HTMとは何なのか?
実は、2-3日前からPythonの勉強を始めました。まだあまり理解していない)。というわけで、本題に入るのはしばらく先です。
ここから、https://numenta.org/implementations/。
ロシア語の本があるのですが、翻訳はほぼ適切です。