記事"微分とエントロピー解析によるGrokking市場の「記憶」"についてのディスカッション - ページ 10

削除済み  
Олег:

彼の著書を具体的に取り上げれば、分数微分は(実際には)あまり快適ではなく、しかもARIMAの修正から始まって100年も前のものである。このような系列を自律的に、他の機能なしで分析した場合、私は満足のいく結果を得られなかった。

メタ・マーク、つまり最初のモデルの結果を修正するために2番目のモデルを訓練し、マトリックスの結果を改善することについての彼の考えが気に入った。トレイン・サベスタでは負けトレードはほとんどありません。繰り返しますが、これは純粋に彼のアプローチではなく、よく知られているものです。しかし、私が見たのは、それがフィン行に適用されたものだけである。リトレーニングを取り除くことはできないが、トレインではいい絵になる。

メタ・ラベリングの セクションhttps://towardsdatascience.com/financial-machine-learning-part-1-labels-7eeed050f32e。

詳しくはこちら:https://www.quantopian.com/posts/meta-labeling-advances-in-financial-machine-learning-ch-3-pg-50

__________________________________________________________________________________________________________________

オーバートレーニング問題に関しては、私はメタ学習、機械学習における注意メカニズムに注目している。

を見ることができる:

1. https://medium.com/towards-artificial-intelligence/a-simple-neural-attentive-meta-learner-snail-1e6b1d487623

2. https://stats.stackexchange.com/questions/344508/what-are-attention-mechanisms-exactly

Financial Machine Learning Part 1: Labels
Financial Machine Learning Part 1: Labels
  • Maks Ivanov
  • towardsdatascience.com
In the previous post, we’ve explored several approaches for aggregating raw data for a financial instrument to create observations called bars. In this post, we will focus on the next crucial stage of the machine learning pipeline — labeling observations. As a reminder, labels in machine learning denote the outcomes of the random variable that...
 
詳しいお返事、ありがとうございます。
削除済み  
Олег:
詳しいお返事ありがとうございます。

彼の本にあるメタ・ラベリングはスタッキングの特殊なケースであり、メタ・モデルを単一のプライマリー・モデルに適用するのではなく、異なるサーベットでトレーニングされた複数のモデルのサスペンションに適用する場合であることを付け加えるのを忘れていた。これは、tafmシリーズに適用することで、より多くの研究の余地を与える可能性がある。

これはかなり良い記事 だ。

さらに、注意+積み重ねのメカニズムは、メタ学習と同じように織り込まれている。だから、試してみたいことがたくさんある。

これらはすべて、グローバルな汎化につながり、オーバーフィットとの戦いに役立つはずだ。

私のマルチエージェントRLライブラリにはマルチエージェント用のビレットがあるが、その結果は平均化されており、重み付けはされていない。私自身は、このテーマでいろいろなバリエーションを行っている。

How to Develop a Stacking Ensemble for Deep Learning Neural Networks in Python With Keras
How to Develop a Stacking Ensemble for Deep Learning Neural Networks in Python With Keras
  • Jason Brownlee
  • machinelearningmastery.com
Model averaging is an ensemble technique where multiple sub-models contribute equally to a combined prediction. Model averaging can be improved by weighting the contributions of each sub-model to the combined prediction by the expected performance of the submodel. This can be extended further by training an entirely new model to learn how to...
 

Maxim Dmitrievsky:

私のマルチエージェントRLライブラリにはマルチエージェント用のビレットがあるが、その結果は平均化されており、重み付けはされていない。私自身は、このテーマでいろいろなバリエーションを作っている。

あなたはライブラリの作者であり、どのような方向に進むかを決めるのはあなたです)、RLに関するあなたの最初の記事の議論の中で、私は平均化をより複雑な方法で置き換えるという疑問を提起しました。RLライブラリにもう一歩踏み込んで、別のアルゴリズムでエージェントを単純に置き換えることができるように、木を別の標準化されたラッパークラスに入れる必要があるだけです。

一次データ準備のクラス(ペアの系列、追加系列-ユーロドルは多くのペアに影響する)、指標の読み取り値のセット、月日、曜日などの追加パラメータ) - アルゴリズムのすべての連鎖のためのデータ準備。

チェーン自体:いくつかの標準的な 前処理クラス、メソッドクラス。

最後に、意思決定のクラス(チェーンの結果を組み合わせる)。

データ、前処理、処理、意思決定の4つのクラス-ベース-ラッパーがある。

この形式では、異なるデータに対して異なるメソッドと1つのメソッドの両方を混ぜることが可能である。おそらく何かが考慮されていないが、これが得られた最小値である。

削除済み  
Олег:

生意気なことを言わないでください(あなたはライブラリの作者であり、どのような方向に進むかを決めるのはあなたです)。RLに関するあなたの最初の記事のディスカッションで、私は平均化をより複雑な手法に置き換えるという問題を提起しました。RLライブラリにもう一歩踏み込んで、別のアルゴリズムでエージェントを簡単に置き換えることができるように、木を別の標準化されたラッパークラスに入れる必要があるだけです。

一次データ準備のクラス(ペアの数、追加行-ユーロドルは多くのペアに影響する、インジケータの読み取り値のセット、追加パラメータ-月、曜日など) - アルゴリズムのすべてのチェーンのデータ準備。

チェーン自体:いくつかの標準的な 前処理クラス、メソッドクラス

最後に - 意思決定のクラス(チェーンの結果を組み合わせる)、単純な形で - 平均

データ、前処理、処理、意思決定の4つのクラス-基本-ラッパークラスがある。

この形式では、異なるデータに対して異なる方法と1つの方法の両方を混ぜることが可能である。おそらく何かが考慮されていないのだろうが、これが得られた最小値である。

alglibには他のアルゴリズムはないので、サードパーティのアルゴリズムを追加する必要がある。つまり、他の特徴、木の数、その他の設定を追加することができます。例えば、異なる特徴で訓練された木の数が少ない弱い分類器をたくさん手に入れることができます。唯一足りないのは、お気づきのように、平均化をメタモデルに置き換えることです。各エージェントがそれ自身のサブサンプルで訓練されるように、訓練をフォールドに分割することも可能です。スタッキングはまだ実験していません。

 
Maxim Dmitrievsky:

alglibには他のアルゴリズムはないので、サードパーティのアルゴリズムを追加する必要がある。つまり、他の特徴、木の数、その他の設定を投入することができます。つまり、例えば、異なる特徴で訓練された、木の数が少ない弱い分類器をたくさん手に入れることができます。唯一足りないのは、お気づきのように、平均化をメタモデルに置き換えることです。各エージェントがそれ自身のサブサンプルで訓練されるように、訓練をフォールドに分割することも可能です。スタッキングはまだ実験していません。

そこで火傷したんだ...。私はブスティング・アルゴリズムを動かすことにした。C++のライブラリはテンプレートと関数のオーバーロードに 重点を置きすぎていて、MQLではすべてのオーバーロードがサポートされているわけではないので、アルゴリズムが飛んでしまい、書き直すのが簡単です。pythonのアルゴリズムには通常の行列ライブラリが必要で(AlgLibにあるものは切り捨てられ、いくつかのものはプラグインで閉じられているだけで、基礎には向いていません)、C#から移行するのが一番簡単でした。MQLの開発者はC++よりもそれに重点を置いているようで、メソッドと名前の一致に至るまで。alglibのツリーをベースにしようとしたが、そこではツリーは行列で作られ、インデックスの扱いが難しく、削除も難しい。これから完成させて投稿するか、誰かが興味を持ってシェアしてくれることを期待している。

削除済み  
Олег:

そこで行き詰まっているんだ...。私はブスティングのアルゴリズムを動かすことにした。C++のライブラリはテンプレートと関数のオーバーロードに 重点を置きすぎていて、MQLではすべてのオーバーロードがサポートされているわけではないので、アルゴリズムが飛んでしまい、書き直すのが簡単です。Pythonのアルゴリズムには通常の行列ライブラリが必要です(AlgLibにあるものは切り捨てられ、いくつかのものはプラグインで閉じられているだけで、基礎には適していません)。alglibのツリーをベースにしようとしたが、そこではツリーは行列で作られ、インデックスの扱いが難しく、削除も難しい。これから完成させて投稿するか、誰かが興味を持ってシェアしてくれることを期待している。

あるいはpythonでやるか、でもMT5で苦労するか......)pythonで同じようなライブラリを作りたいという願望があります。わざわざ記事にする意味があるのでしょうか?

唯一の問題は、私がこのライブラリをかなり開発したことで、記事よりもはるかに複雑に見えます。
 
Maxim Dmitrievsky:

pythonで同じようなライブラリを作りたいという願望があります。わざわざ記事にする意味があるのでしょうか?

唯一の問題は、私がこのライブラリを非常に開発したということです。

この記事には確かに意味がある。

PythonはMLの標準になり、MQLの開発者もこの方向に進んでいる。私がアルゴリズムを移植しようとしたのは、MQLで自動売買のためのDLLを拒否したことに関連していますが、これは厳密な要件ではありませんし、アルゴリズムがpythonの方が使いやすいのであれば、そうすればいいのです。


お世辞抜きで - 私はあなたの記事を喜んで読んでいます。内容については顔が真っ青になるまで議論できますが、新しい方向性を打ち出したという事実は明白です。

私は新しい記事に賛成です。

削除済み  
Олег:

この記事には確かに意味がある。

PythonはMLの標準になり、MQLの開発者もこの方向に進んでいるので、いずれにせよPythonをマスターする必要がある。私がアルゴリズムを移植しようとしたのは、MQLの自動売買用DLLの拒否に関連していますが、これは厳密な要件ではありませんし、アルゴリズムがpythonの方が使いやすいのであれば、そうすればいいのです。


お世辞抜きで、私はあなたの記事を喜んで読んでいます。内容については顔が真っ青になるまで議論することができますが、新しい方向性を打ち出しているという事実は明白です。

私は新しい記事に賛成です。

ランダムフォレストではなく、例えばCatBoostのようなブースティングを使うだけです。

そして、後でこのトピックをさらに発展させる。まずはシンプルに。
 
Maxim Dmitrievsky:

ランダムフォレストではなく、例えばCatBoostのようなブースティングを使う。

そして、後でこのトピックをさらに発展させる。まずは簡単なところから。

オプションとして、XGBoost - ソースコード付きライブラリ、あるいは簡略化したもの:

https://habr.com/ru/company/mailru/blog/438562/

ところで、この記事では、バウスト、バウストバッキングについて説明している
Пишем XGBoost с нуля — часть 2: градиентный бустинг
Пишем XGBoost с нуля — часть 2: градиентный бустинг
  • habr.com
Всем привет! В прошлой статье мы разбирались, как устроены решающие деревья, и с нуля реализовали алгоритм построения, попутно оптимизируя и улучшая его. В этой статье мы реализуем алгоритм градиентного бустинга и в конце создадим свой собственный XGBoost. Повествование будет идти по той же схеме: пишем алгоритм, описываем его, в заверешение...