トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 544

 
マキシム・ドミトリエフスキー

モニターが正しくキャリブレーションされていないため、色に惑わされ、時には見分けがつきにくくなっている可能性があります。

何を作ったのですか?

そんなものはない。

アービトラージチャートでポンドが間違った色で表示されていると言ったのを覚えていますか?

あなたが作ったものは秘密です。

 
レナト・アフティアモフ

そのような選択肢はありません。

裁定取引チャートのポンドの色が違うという話をしたのを覚えていますか?

私が作ったものは秘密です。


全色揃えました。

 

市場についてではありませんが、モデルを効果的に構築するための一般的なアプローチについて、とても参考になりました(どの段階でも、何かがうまくいかず、それに気づかない可能性があります)。


 

教師不要学習(クラスタリング)、RL(強化学習)。最適化するパラメータを減らす試みです。クラスタリングをどのように適用するか、誰か考えたことがありますか? 2つ目はより複雑で、専用のパッケージが必要です。

例)https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/

https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/

Unsupervised candlestick classification for fun and profit – part 1
Unsupervised candlestick classification for fun and profit – part 1
  • 2015.11.10
  • Kris Longmore
  • robotwealth.com
Candlestick patterns were used to trade the rice market in Japan back in the 1800’s. Steve Nison popularised the idea in the western world and claims that the technique, which is based on the premise that the appearance of certain patterns portend the future direction of the market, is applicable to modern financial markets. Today, he has a...
 
マキシム・ドミトリエフスキー

教師不要学習(クラスタリング)、RL(強化学習)。最適化するパラメータを減らす試みです。クラスタリングをどのように適用するか、誰か考えたことがありますか? 2つ目はより複雑で、専用のパッケージが必要です。

例)https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/

https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/

強化学習 について考えるようになったんです。それが、交流に必要なことだと思うのです。
 
アレクセイ・テレンテフ
強化学習について考え始めているところです。これが交流に必要なことだと思われます。

私も、Pythonを同時にマスターしています...。Rがうざい。古くはo_o氏のコホネンレイヤーに関する記事があり、彼は例や開発なしにプラスアルファの何かを書いていました。

https://www.mql5.com/ru/articles/1562

Рецепты нейросетей
Рецепты нейросетей
  • 2009.02.12
  • o_o
  • www.mql5.com
Не так давно - на заре технического анализа, когда компьютеры были далеко не у каждого биржевика - появлялись люди, которые пытались предсказывать будущие цены по ими же придуманным законам и формулам. Таких людей часто называли шарлатанами. Время шло, усложнялись методы обработки информации, и теперь очень сложно найти равнодушного к...
 
マキシム・ドミトリエフスキー

私も、Pythonを同時にマスターしています...。Rがうざい。古くはo_o氏のコホネンレイヤーに関する記事があり、彼は例や開発なしにプラスアルファの何かを書いていました。

https://www.mql5.com/ru/articles/1562

私はqtとopennnで書いていますが、率直に言って、mlp(opennn)より先のものはまだ開発されていないのです。
実は、私のレポジトリのカウンターパートとしてあなたを加えることができます、私の作業スキームを説明します。
 
アレクセイ・テレンテフ
qtとopennnを使いましたが、率直に言ってmlp(opennn)より長く開発されているものはありません。
一般的に、私はあなたを私のリポジトリにカウンターパートとして追加することができます、私はそれがどのように動作するかをスキームを説明します。

私はまだそれほど優れたプログラマーではないので、まずはもう少し勉強する必要がありそうです。

 
マキシム・ドミトリエフスキー

教師不要学習(クラスタリング)、RL(強化学習)。最適化するパラメータを減らす試みです。クラスタリングをどのように適用するか、誰か考えたことがありますか? 2つ目はより複雑で、専用のパッケージが必要です。

例)https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/

https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/

クラスタリングも面白い手法ですね。モデルの学習前に適用することで、全く相関のないパラメータが排除されるからです。
私も肝に銘じています。どうしても手に入らないんです。
 
アレクセイ・テレンテフ
また、クラスタリングも面白い手法です。モデルのトレーニングの前に使うべきだと思います。この方法で、全く相関のないパラメータをフィルタリングすることができるからです。
私も肝に銘じています。どうしても手に入らないんです。

特に多次元クラスタリングを使う場合、ベクトルに特徴を持たせて、例えば増分でラグを持たせて...グループに分けてみる、つまりどの特徴が将来どの増分に対応するかを考えることができる

この集合を、例えばNSの学習に応用する...つまりデータマイニングのように

はい、まさにトレーニングの前に......またはTSのための別物として

理由: