トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1299

 
アレクセイ・ヴャジミキン

私は似たようなことをやっていました。質問は、再び予測因子と選択基準(ターゲット)についてです。今(何ヶ月か後)、私は予測因子に関するすべてのアイデアを終了し、このトピックに戻るつもりです。そして、結果は一般的にそこそこです。このようなモデルがどのように機能するかは先に掲載しましたが、できれば異なるモデルによる、異なる散らばりのサンプルが必要です。

また、AutoMLは予測因子やターゲットとして何を使っているのでしょうか?

は、ターゲットが既知でなければならず、予測変数はオートマトン上で変換され、モデルも列挙される

また、何か分かったら、書きます。

GoogleがTensorFlowを2.0にアップデートしてくれるのを待っています。できればPython 3.7をサポートしてくれるといいのですが。私はgoogleのものがすべて好きですが、このパッケージはあらゆる場面で使えるもので、すべてが揃っています。

 
マキシム・ドミトリエフスキー

まあ、ターゲットが分かっているはずなので、予測変数は機械上で変換され、モデルも上書きされるのですが

また、何か分かったら、書きます。

GoogleがTensorFlowを2.0にアップデートしてくれるのを待っています。できればPython 3.7をサポートしてくれるといいのですが。Googleの製品はすべて好きですが、このパッケージはあらゆる場面で活躍するもので、すべてが揃っています。

もし、予測因子が公に規定されているのであれば、それが分かったら書いてください。ターゲットも我々の場合、資金に対するモデルの推定が追加されるため、難しい。固定されたTPとSLの場合は良いが、それ以外の場合は予測能力の観点から良いモデルでも失敗する可能性がある。いずれにせよ、サンプル全体における分類精度の均一 性を期待するため、分類残高のカーブを考慮し、ドローダウンや正常残高などの基準を確認しながらモデルを推定しています。

私はまだpythonを持っていません、私はそれなしで多くのことをすることができます、私は多くのアイデアを持っています、それは実現される必要があります。

 
アレクセイ・ヴャジミキン

それを把握した上で書くと、予測変数はそこに公的に規定されていれば非常に面白い。ターゲットも我々の場合は難しいですね、お金にモデルの評価が加わるので、TPやSLが決まっているものには良いのですが、それ以外の場合は、予測能力的に良いモデルでも失敗することがあります。いずれにせよ、サンプル全体における分類精度の均一性を期待するため、分類残高のカーブを考慮し、ドローダウンや正常残高などの基準を確認しながらモデルを推定しています。

Pythonはまだインストールしていません。Pythonがなくてもできることはたくさんありますし、実装しなければならないアイデアもたくさんあります。

つまり、予測変数も自分のものですが、AutoML自身によって変換され、ヒットもそうです。

 
マキシム・ドミトリエフスキー

予測変数も自分のものですが、AutoML自身が変換して、自動的に選択されるということです。

本質的には何も面白いことはなく、追加機能を提供するラッパーに過ぎない :)

 
アレクセイ・ヴャジミキン

そうすると、本質的には何も面白くなく、ただ単に追加機能を与えるラッパーになります :)

ルーティンワークから脱却 することでした

非定常市場において、データマイニングのルーチンをすべて手作業で行うことを推奨する一部の記事とは異なり、非定常市場においては不合理です。

非定常相場では統計的アプローチは通用しないという私の意見はすでに何度も書いている(つまり、統計学やMOの本に書かれている古典的なアプローチ)。
 
マキシム・ドミトリエフスキー

ルーティンワークから脱却 することでした

データマイニングのルーチンをすべて手動で行うことを推奨する記事もありますが、これは非定常的な市場においては不合理です。

非定常相場では統計的アプローチは通用しないという私の意見はすでに繰り返し書いている(つまり統計学やMOの書籍に書かれている古典的なもの)。

まあ、それでもターゲットとプレディクターは自分で考えなければなりませんが。オーバートレーニングのモデルの兆候を構造で見つけるとかいう研究があったような気がしたのですが。トレーニングやテストに依存しないサンプルで機能する(あるいはその逆で機能しない)モデルを見つけることができるようになることが重要なのですが、ここでも「機能するとはどういうことか」という問題が生じ、一義的なものではなくなります。また、モデル解析の自動化は難しいことではなく、少なくともcatbustでは、異なるファイルにアンロードして、私のようにMTで、あるいは自分のソフトウェアで、それらを解析するだけでよいのです。

 
アレクセイ・ヴャジミキン

まあ、それでもターゲットとプレディクターを 考えるのはあなた次第です。オーバートレーニングしたモデルの特徴を構造で見つけるとかいう研究があったような気がしましたが。トレーニングデータとテストデータに依存しないサンプルでうまくいくモデル(あるいはその逆で、どれがうまくいかないか)を見つけられるようになることが重要なのですが、ここでも「うまくいくというのはどういうことか」という問題が出てきて、一義的にはいかないんですね。また、モデル解析の自動化は簡単で、少なくともcatbustでは、必要なのは異なるファイルにアンロードされ、それを私のようにMTで、あるいは独自のソフトウェアで解析するだけでいいのです。

今、そう思えるのは、まだ甘いニンジンを食べたことがないからでしょう。

妄想してないで勉強してればそのうち着くよ。

なぜなら、あなたのファンタジーは、AIの分野におけるgoogleやdipmindチームのファンタジーに比べれば、大海の一滴に過ぎないからです。だから、既製品ではダメなんです。

このモデルはこう使うべき、ああ使うべきと書かれていれば、そういうことなんです。空想することはない。すでに発明されたものを理解することが大切なのだから
 
マキシム・ドミトリエフスキー

今そう思うのは、まだニンジンより甘いものを食べたことがないからでしょう。

妄想してないで勉強すれば間に合うよ...。

AIの分野で、googleやdipmindのようなあなたの妄想は、大海の一滴ですから。だから、棚からぼた餅なんです。

思いの深さが伝わらない。ターゲットとプレディクターは、そのソフトのために自分で考えなければならないと書かれていましたが、そうであれば、自分で全部できて、その仕組みや改善点、修正点がわかるので、あまり意味がないのではと書きました。

後半部分については、私もそう思うのですが、仕組みが理解できるものを優先しています。

 
アレクセイ・ヴャジミキン

思考の深さが理解できない。ターゲットもプレディクターも、そのソフトのために自分で考える必要があるとご自身で書かれていましたが、そうであれば、自分で全部やれば、仕組みも改善点も修正点もわかるので、それならあまり意味がないのではと書きました。

後半部分については、私も同意見ですが、私は自分が理解したものを効果的に取り入れるのが好きなんです。

AutoMLは、全工程(あるいはほぼ全工程)を自動化する例として挙げられたのですが、その思想の深さですね。最初の投稿を起点とした論理的な連鎖は単純明快です。自分を行き止まりに導いているのです。

この例は、一般化とはどういうことかということを説明するために出したもので、あなたのように手作業で知識を抽出するものではありません。ほとんどすべての局面で、機械は人間よりもよく働くとさえ書いてある。

キャットバストの仕組みを理解しているのか疑問です。

 
マキシム・ドミトリエフスキー

autoMLは、全工程(あるいはほぼ全工程)を自動化する例として挙げられたのですが、その思想の深さですね。最初のメッセージから始まる論理的な連鎖は単純である。自分を行き止まりに導いているのです。

この例は、一般化とはどういうことかということを説明するために出したもので、あなたのように手作業で知識を抽出するものではありません。ほとんどすべての局面で、機械は人間よりもよく働くとさえ書いてある。

キャットバストの仕組みを理解しているのか疑問です。

OK、試してみて、よかったら教えてください。また、可能であれば、私の選択とMLの選択を、私の側であまり手間をかけずに比較してみてください。

確かに、キャットバストの仕組みを徹底的に理解しているわけではありませんが、私にはすでに操作の知識と経験があり、そのすべてが時間をかけて総合的に理解されているのです。十分な情報がない中で、ゼロから何かを得て、それを仕事に生かそうとするのは、僕にとっては違和感があるんです。ネコババの時も、全部検索して理解して、翻訳して、だから、もっと理解している人がいて、コードの技術的な部分を聞ける人がいるのはいいことだと思います。

理由: