トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 632 1...625626627628629630631632633634635636637638639...3399 新しいコメント Forester 2018.02.01 20:43 #6311 マキシム・ドミトリエフスキー私はリ・インフォメーション・ラーニングが気になっていたので、この興味深い記事を見つけ、購入して、もしかしたらbotに追加しようとしているところです https://hackernoon.com/the-self-learning-quant-d3329fcc9915 ただ、彼は最後に何らかの理由で買うことを学ぶだけで、ある種の薬を持っています。私も同じ状況で、NSクラシファイアは1つのクラスで詰まることが多いんです。クラスの足並みを揃える必要がある。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。 これはその記事とほぼ同じで、なるほどと思いました。 回帰・予測に切り替えて実験してみようかな、どうなるかな...。 Aleksey Terentev 2018.02.01 21:42 #6312 マキシム・ドミトリエフスキーリ・インフォメーション・ラーニングが気になっていたので、面白い記事を見つけたので、購入して、botに追加してみようかと思っているところです https://hackernoon.com/the-self-learning-quant-d3329fcc9915 botを買おうとしているのですが、彼はドジで、なぜか最後だけ買うことを覚えます。 まあ、彼自身はそこで「明確な強気トレンドがあるから大丈夫」と説明したのですが。また、同地のあるコメンテーターは、代理人はロングポジションを持ちたがっているという。はい、そして作者自身も小出しにしていることを語っています。また、コードの中で彼は、時間の経過とともに賞の価値を調整するためにガンマを使用しませんでした。 そして、一般的には、コードの中で2つの良いライブラリのリファレンスを示しているので、この記事は有用である。 1つは各種市場データを読み込むためのもので、もう1つはデータ上に各種指標を適用するためのものです。自分のために取った。https://www.quandl.com/tools/pythonhttps://mrjbq7.github.io/ta-lib/ Aleksey Terentev 2018.02.01 22:14 #6313 エリブラリウス私も同じ状況で、NSクラシファイアは同じクラスに入ることが多いですね。クラスの足並みを揃える必要がある。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。 これはその記事とほぼ同じで、得した気分です。 回帰・予測に切り替えて実験して見ようかと思うのですが...。私もこの状況に直面しています。 特徴選択、正則化、脱落を多くすることで、より安定したモデルになります。すべてアライメントなし、純粋な時系列フロー。 なんだかんだでよくクラスをいじってますね。私の場合(ml-assistant)、シグナルのパーシスタンスは1つの数値[-1,1]です。つまり、理論的にはすぐに回帰を組み立てることができるのですが(これもかなりうまくいきます)、そこでは予測が「読みにくく」なってしまうのです。 分類するためには、クラスに分ける必要がありますが、そのクラスの和を1.0に等しくするのがソフトマックスの考え方です。しかし、最終的には、0に相対して割るのが最も正しいことが判明しました。モデル自体は、ターゲティングに関係なく、クラスの合計を1に正規化するのです。 でも、3つ目のパスクラスを追加すると、なぜかオーバートレーニングの連続になるんです。もしかしたら、私の仕込みが悪いのかもしれません。=) Yuriy Asaulenko 2018.02.01 23:19 #6314 エリブラリウス私も同じ状況です。NSクラシファイアは1つのクラスに入ることが多いです。クラスの均等化が必要だ。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。 これはその記事とほぼ同じで、得した気分です。 リグレッション/フォアキャストに変えてみようかなと思っています。1万~1万2千のサンプルのうち、~800がクラス1、残りがクラス0。それが現実です)。 トレーニングの順序におけるクラスの量的比率は現実に近いものであるべきだと、気の利いた本で読んだことがあります。 Maxim Dmitrievsky 2018.02.02 03:17 #6315 ユーリイ・アサウレンコ10~12,000人のサンプルのうち、~800人がクラス1、残りはクラス0。これが現実です)。 トレーニングの順序におけるクラスの量的比率は現実に近いものであるべきだと、気の利いた本で読んだことがあります。や他のスマートな本には、クラスのバランス・組み合わせが必要だと書いてあります。 すなわち、FXでは、母集団について何もわからないのだから、クラスの要素数がほぼ等しくなるのは当然である。 Mihail Marchukajtes 2018.02.02 03:21 #6316 みなさん、こんにちは!!!負のエントロピーの意味を明確に説明できる人はいますか?わかりやすく言うと......。 Maxim Dmitrievsky 2018.02.02 03:21 #6317 頭のいい人がランダム性について語った興味深いビデオです。 Alexander_K2 2018.02.02 04:11 #6318 Mihail Marchukajtes: みなさん、こんにちは!!!!どなたか負のエントロピーの意味を説明してください。わかりやすく言うと......。賢い人の書き込みはこうだ。"非エントロピー "θは、ある「構造的」な値に対応する。これは、過去の記憶の特徴的な量によって決まる。θが大きいと広い範囲の複雑な階層構造が現れ、θが小さいと狭い範囲の構造が現れ、θ→0、つまり過去に関する情報がないとマルコフ過程への限界的な移行が見られる。" 実は、これがプロセスの非マルコビアンを特徴づける値なのである。私は確率分布を 扱う仕事をしているので、このことが分布の「テール」のようなものを担っていることがわかりました。 Yousufkhodja Sultonov 2018.02.02 04:34 #6319 Mihail Marchukajtes: みなさん、こんにちは!!!!どなたか負のエントロピーの意味を説明してください。わかりやすく言うと......。エントロピーは無秩序やカオスの尺度であり、非エントロピー(負のエントロピー)は良識や自己組織化の度合いを示す尺度である。ビーカーの中で溶けていない砂糖はエントロピーが最小、完全に溶けるとエントロピーが最大になる系です。システムを初期状態に戻すには、エントロピーを外から輸入して、結晶化条件を整える必要がある。NSの場合、常に外から新しい情報を吸収し、不要な情報を排除していかなければ、エントロピーの増大によりシステムが死んでしまう。 Alexander_K2 2018.02.02 04:38 #6320 ユスフホジャ・スルトノフエントロピーは無秩序やカオスの尺度であり、非エントロピー(負のエントロピー)は秩序性や自己組織化の度合いを示す尺度である。ビーカー内の未溶解の砂糖はエントロピーが最小で、完全に溶解した後はエントロピーが最大になる系です。システムを初期状態に戻すには、エントロピーを外から輸入して、結晶化条件を整える必要がある。NSの場合、常に外から新しい情報を吸収し、不要な情報を排除していかなければ、エントロピーが増大し、システムは死に至る。素晴らしいコメントです。まさにその通りです。 1...625626627628629630631632633634635636637638639...3399 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
私はリ・インフォメーション・ラーニングが気になっていたので、この興味深い記事を見つけ、購入して、もしかしたらbotに追加しようとしているところです
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
ただ、彼は最後に何らかの理由で買うことを学ぶだけで、ある種の薬を持っています。
私も同じ状況で、NSクラシファイアは1つのクラスで詰まることが多いんです。クラスの足並みを揃える必要がある。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。
これはその記事とほぼ同じで、なるほどと思いました。
回帰・予測に切り替えて実験してみようかな、どうなるかな...。
リ・インフォメーション・ラーニングが気になっていたので、面白い記事を見つけたので、購入して、botに追加してみようかと思っているところです
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
botを買おうとしているのですが、彼はドジで、なぜか最後だけ買うことを覚えます。
そして、一般的には、コードの中で2つの良いライブラリのリファレンスを示しているので、この記事は有用である。
1つは各種市場データを読み込むためのもので、もう1つはデータ上に各種指標を適用するためのものです。自分のために取った。
https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/
私も同じ状況で、NSクラシファイアは同じクラスに入ることが多いですね。クラスの足並みを揃える必要がある。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。
これはその記事とほぼ同じで、得した気分です。
回帰・予測に切り替えて実験して見ようかと思うのですが...。
私もこの状況に直面しています。
特徴選択、正則化、脱落を多くすることで、より安定したモデルになります。すべてアライメントなし、純粋な時系列フロー。
なんだかんだでよくクラスをいじってますね。私の場合(ml-assistant)、シグナルのパーシスタンスは1つの数値[-1,1]です。つまり、理論的にはすぐに回帰を組み立てることができるのですが(これもかなりうまくいきます)、そこでは予測が「読みにくく」なってしまうのです。
分類するためには、クラスに分ける必要がありますが、そのクラスの和を1.0に等しくするのがソフトマックスの考え方です。しかし、最終的には、0に相対して割るのが最も正しいことが判明しました。モデル自体は、ターゲティングに関係なく、クラスの合計を1に正規化するのです。
でも、3つ目のパスクラスを追加すると、なぜかオーバートレーニングの連続になるんです。もしかしたら、私の仕込みが悪いのかもしれません。=)
私も同じ状況です。NSクラシファイアは1つのクラスに入ることが多いです。クラスの均等化が必要だ。しかし、私は一方のクラスが95%、もう一方のクラスが5%です。*20行のボリュームは好ましくない。
これはその記事とほぼ同じで、得した気分です。
リグレッション/フォアキャストに変えてみようかなと思っています。
1万~1万2千のサンプルのうち、~800がクラス1、残りがクラス0。それが現実です)。
トレーニングの順序におけるクラスの量的比率は現実に近いものであるべきだと、気の利いた本で読んだことがあります。
10~12,000人のサンプルのうち、~800人がクラス1、残りはクラス0。これが現実です)。
トレーニングの順序におけるクラスの量的比率は現実に近いものであるべきだと、気の利いた本で読んだことがあります。
や他のスマートな本には、クラスのバランス・組み合わせが必要だと書いてあります。
すなわち、FXでは、母集団について何もわからないのだから、クラスの要素数がほぼ等しくなるのは当然である。
頭のいい人がランダム性について語った興味深いビデオです。
みなさん、こんにちは!!!!どなたか負のエントロピーの意味を説明してください。わかりやすく言うと......。
賢い人の書き込みはこうだ。
"非エントロピー "θは、ある「構造的」な値に対応する。これは、過去の記憶の特徴的な量によって決まる。θが大きいと広い範囲の複雑な階層構造が現れ、θが小さいと狭い範囲の構造が現れ、θ→0、つまり過去に関する情報がないとマルコフ過程への限界的な移行が見られる。"
実は、これがプロセスの非マルコビアンを特徴づける値なのである。私は確率分布を 扱う仕事をしているので、このことが分布の「テール」のようなものを担っていることがわかりました。みなさん、こんにちは!!!!どなたか負のエントロピーの意味を説明してください。わかりやすく言うと......。
エントロピーは無秩序やカオスの尺度であり、非エントロピー(負のエントロピー)は良識や自己組織化の度合いを示す尺度である。ビーカーの中で溶けていない砂糖はエントロピーが最小、完全に溶けるとエントロピーが最大になる系です。システムを初期状態に戻すには、エントロピーを外から輸入して、結晶化条件を整える必要がある。NSの場合、常に外から新しい情報を吸収し、不要な情報を排除していかなければ、エントロピーの増大によりシステムが死んでしまう。
エントロピーは無秩序やカオスの尺度であり、非エントロピー(負のエントロピー)は秩序性や自己組織化の度合いを示す尺度である。ビーカー内の未溶解の砂糖はエントロピーが最小で、完全に溶解した後はエントロピーが最大になる系です。システムを初期状態に戻すには、エントロピーを外から輸入して、結晶化条件を整える必要がある。NSの場合、常に外から新しい情報を吸収し、不要な情報を排除していかなければ、エントロピーが増大し、システムは死に至る。
素晴らしいコメントです。まさにその通りです。