トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 80

 
RF 10/5」の意味するところ
 
mytarmailS:
ここにいるのは全員デマゴーグ、あなただけがダルタニアン、それだけは確かです、少なくともあなたは荒らしではありません......。ではでは......。:)


本物のトレード戦略とは思えませんが、深い実践者であることを知り、相場に関する疑問で答えのないものはない・・・と感謝したいくらいです。

この人はPh.D.です。かなり昔(20年ほど前)に「AI」についての博士論文(技術科学)を発表しています。彼は20年以上ロボットを作り続けており、多くの経験を積んでいます。

そして、ブラックボックス的なアプローチで市場を予測することはできないが、働く属性を特定し、それがどのように、なぜ働くのかを理解し、ノイズを無視して働くものだけを残すために、データを可能な限りフィルタリングすることが必要であると述べている。

彼は約100の兆候(予測因子)のネットワークを持っており、各特徴はあなたが望むように全体のライブラリまたはパッケージを持っています。

そして、図書館を丸ごと使うような看板と、"SMA "という名のくだらない曲がったものとのクオリティの差を比べてみてください。, "MACD"や「RSI」等...Mihail Marchukajtesが 書いたように、モデルには0.00000001%の有用な情報があり それは事実です。そうでなければ、モデルはまさに彼らが示すことのできる性能、つまり90%の正解を示すでしょう

この人は、「MSUA」を読むことと、スペクトル解析、特にフーリエ解析を勧めています。

========================================================

さらに私は "demagog "が達成しているどのような結果が、実際には非常に控えめな、私は多くを考えると良いアイデアは、私の研究は、同時に多くの方向に進んでいると様々な分野での知識の巨大な不足は、しばしばフォーラムの参加者からの助けを求めるため、特に助けるために、誰も望んでいない、彼らはあなた自身を学び、その後言う... 私自身がすべてを習得した場合にのみ、なぜ私は、この通信を行うように論理なしで、私は気を取られるようにします。


新しいデータでRFから得た最高のものは、2ヶ月連続で月50%ですが、まだ安定していません


要は、年率30%がカッコいい、カッコ 悪いといったパターンに自分を縛る必要はなく、 このフレームワークで心やクリエイティビティ

おめでとうございます。そうやって5年間トレードするんです。もしくは5年分のリアル統計のデータでも見せてくれ。

また、サインについては、あなたのサインはくだらない、もっといいサインがある、モデルは重要ではない、といったカウチ分析はここでは行いません。さて、何をしたのか見せてください。ここに私のすべてのインプットと、その組み合わせも掲載しています。その情報量をカウントする。そうでなければ、なぜ空気を揺さぶるのか?

 
サンサニッチ・フォメンコ
RF 10/5 "の意味するところ

そうそう、新しいデータでモデルをテストしているときに、写真にメモをしていたのですが、気にしないでください・・・。

モデルのパラメータである 5本の木 10本の枝

 
mytarmailS:

そうそう、新しいデータでモデルをテストしているときに、写真にメモをしていたのですが、気にしないでください・・・。

これがモデルパラメータ 5本の木 1本の木に10本の枝

とても興味深いです。

詳細を教えてください。

 
mytarmailS:

新しいデータでRFから絞り出すことができた最高のものは、2ヶ月連続で月50%ですが、まだ非常に不安定です、私は10回写真をアップロードしようとしましたが、それは動作しません(了解)


要は、年率30%がかっこいい、 みたいなテンプレートで自分を縛ってはいけないかっこいいのではなく、心やクリエイティビティを高めるためのフレーム ワークなのです

これは、アウトオブサンプルデータのバックテストなのでしょうか?そうだったっけ?
 
サンサニッチ・フォメンコ

どれも興味深いですね

詳細を教えてください。

具体的に何を知りたいのですか?しかし、誰も気にしない。 誰もが自分のやり方で市場を理解している。したがって、情報の受け止め方は人それぞれであり、常に誰かの意見に耳を傾けることができるわけではありません。
 
アレクセイ・ブルナコフ
は、サンプル外のデータでのバックテストなのでしょうか?うまくいったかな?
 
mytarmailS:
アイデアを発展させ、データを追加していく。それ以外は、良い、よくやった!という感じです。
 

モデルのトレーニングが不適切で、バリエーションが多すぎるようだ。モデルは通常、学習ロジックが一貫して定義されていない、ある種のランダムな学習プロセスを持っています。このようなランダムモーメントは、複数のモデルを学習させた場合、学習データではほぼ同じ結果になるのに、フロントテストでは差が出るということにつながる。

問題の発生源とその解決策はいくつかある。
1) 有用な情報を提供しないノイズ入力があるため、それらを除去する必要がある。
2) モデルの学習パラメータを変更する。neuronkeyでは、decayパラメータを使用することでこの問題を解決し、このパラメータを使用したフロントテストの結果は散乱しなくなりました。森をどうするかは、わからない。
3)モデルの委員会を作る。多くのモデルを学習させ、すべてのモデルでフロントテストを行い、多くの人が言うような結果を得る。
4) 学習時にクロスバリデーションを行う場合、同じデータで何度か繰り返し、結果のばらつきを見て、ばらつきの少ないモデルや予測子を選ぶこと

今、思い浮かぶのはこのようなことですが、考えられる問題の限界ではありません。

 
アレクセイ・ブルナコフ
アイデアを練る。データを追加する。サンプルから外れるまで数年かかるはず。それ以外はグッジョブ!
サーバーがあります :)
理由: