ロボットのための機械学習 - ページ 5

 
Ivan Negreshniy:

もちろん私だけではなく、例えばMOのスレッドでは、入力時のゴミについてのマントラを繰り返し、先生と訓練したときの正式な出力時のゴミがあまり良くないこと、特徴のベクトルの選択とシャッフルはオーバーフィッティングから救ってくれないことを明らかに忘れてやっている人たちがいるのです。

手動で信号をマークしようとしているが、システムは均等に分散させるべきか、それとも入力だけにロジックをマークすべきか?

非定常性にはどのように対処するのですか? また、1つの同じパターンの大きさが15本であったり150本であったりと、全く対処できないのですか?

 
mytarmailS:

手動で信号をマークしようとしているが、システムは均等に分散させるべきか、それとも入力だけにロジックをマークすべきか?

非定常性にはどのように対処するのですか? また、例えば、1つの同じパターンの大きさが15本であったり150本であったりしますが、それに全く対処しないのですか?

信号の数に敏感で、アライメントが必要なモデルもあれば、そうでないモデルもあります。ランダムな足場や 自分で書いたグリッドなど、かなり気負わずに始められると思いますし、パターンのサイズについては、最大値を基準にすればいいのではないでしょうか。
 
Ivan Negreshniy:

さて、実験の整理と考察です。

  • このスレッドに、自分の戦略の売買シグナルをテンプレートとして作成し、投稿することができます。
  • テンプレートを加工してExpert AdvisorやIndicatorを作り、それを編集してここに掲載しています。
  • 他の誰もが自由にテンプレートやロボットをダウンロードし、テストし、専門家の意見を述べることができます。

どうしてこんなに複雑なんだ。もっと簡単な方法でできます。

履歴上では多くのトレードがランダムに発生します。その中には、成功しているものもあれば、そうでないものも多くあります。このサンプルでは、MOのメソッドを使ったシステムを教えています。MOはそれを分類し、パターンを見出す。

1万トレードのシーケンスでやってみました。MOを使ったシンプルなシステムでもしっかり学習しており、テストでは80~85%の成功率を示しています。これは、単純なMOとしては非常に奇妙なことで、それほど多くの取引を 記憶することはできません。

しかし、これらの奇跡はすべて、トレーニング・シークエンスでのみ観察されるものです。)

 
Yuriy Asaulenko:

なぜそんなに複雑にするのか。もっと簡単な方法でできます。

ストーリー上では多くのトレードがランダムで発生します。その多くは成功し、多くは失敗している。このサンプルでは、MOの手法でシステムを教えています。MOはそれを分類し、パターンを見出す。

1万トレードのシーケンスでやってみました。MOを使ったシンプルなシステムでもしっかり学習しており、テストでは80~85%の成功率を示しています。これは、単純なMOとしては非常に奇妙なことで、それほど多くの取引を 記憶することはできません。

しかし、これらの奇跡はすべて、トレーニング・シークエンスでのみ観察されるものです。)

そうですね、フルオーバーフィッティングでは学習シーケンスが100%になるかもしれませんが、タスクは記憶することではなく、フォワードで汎化して結果を出すことです。

そのため、実験では、ランダムまたはすべての可能な収益性の高い取引ではなく、任意の指標の読み取りからフィルタリングされた取引(シグナル)で訓練することが提案されています。

したがって、すべての信号にはすでにBPとの形式的な依存関係が含まれており、ニューラルネットワークはそれを判断し、サンプルに含まれない悪い信号を除外するパターンを確立すればよいことになる。

 
Yuriy Asaulenko:

なぜそんなに複雑にするのか。もっと簡単な方法でできます。

ストーリー上では多くのトレードがランダムで発生します。その多くは成功し、多くは失敗している。このサンプルに対して、MOの手法でシステムを学習させる。MOはそれを分類し、パターンを見出す。

1万トレードのシーケンスでやってみました。MOを使ったシンプルなシステムでもしっかり学習しており、テストでは80~85%の成功率を示しています。単純なMOとしては、それほど多くの 取引を記憶することができないので、これはすでに非常に奇妙なことです。唯一の説明は、MOが実際にいくつかのパターンを見つけて一般化しているということです。

はい、しかし、これらの奇跡はすべて学習シーケンス上でのみ観察されるものです)。

あなたのMOに関する知識は、残念ながらまだゼロに近いです。

だから、あなたの内部の神経ネットワークは、それが何であるかについて、まだコンセンサスを得ることができないのです。
 
Maxim Dmitrievsky:

あなたの国防総省に関する知識は、残念ながらまだゼロです。

だから、あなたの中のニューラル・ネットワークはまだコンセンサスを得ることができないのです:それをすることに全く意味がないのですか?

そんなに興奮するなよ、マキシム(笑)自分よりタフなのはボールだけだということは、もう誰もが知っている。

 
Ivan Negreshniy:

そうですね、フルオーバーフィットのトレーニングでは100%かもしれませんが、タスクは暗記することではなく、一般化してフォワードマーケットで結果を出すことです。

このため、実験では、ランダムまたはすべての可能な収益性の高い取引ではなく、任意の指標の読み取りからフィルタリングされた取引(シグナル)で訓練することが推奨されています。

したがって、すべての信号にはすでにBPとの形式的な依存関係が含まれており、ニューラルネットワークはそれを判断し、サンプルに含まれない悪い信号を除外するパターンを確立すればよいことになる。

学習サンプルの次元がNSの次元よりはるかに大きい場合、再トレーニングはほとんど非現実的である。

少ないサンプル数で、再トレーニングを回数で達成することができます。例えば、200件のリアルトレードが与えられたとしましょう。

 
Yuriy Asaulenko:

学習サンプルの次元がNSの次元よりはるかに大きい場合、再トレーニングはほとんど非現実的である。

小さなサンプルでは、1回というカウントで再トレーニングが実現します。仮に200回の実トレードが与えられたとする。

それはデータ、パラメータ、モデルの種類に依存し、例えば木ではレベルの数が動的に増加し、私のネットワークではニューロンの数のように、情報の条件密度の限界がありますが、それは訓練サンプルによってのみ決定され、あなたはプルーニング、委員会、等を行うことができます。

また、過学習とは、必ずしもすべてのサンプルを記憶しているわけではなく、例えば、矛盾した情報が置き換わって平均化できない場合などに、一般化せずに記憶しているに過ぎない。

 
Ivan Negreshniy:

データ、パラメータ、モデルの種類によって異なりますが、例えば木であればレベルの数が動的に増加し、私のネットワークでもニューロンの数が増加します。情報の条件密度の限界はありますが、それはトレーニングサンプルによってのみ決定され、プルーニング、コミッターなどを行うことができます。

また、過学習とは、必ずしもすべてのサンプルを記憶することではなく、例えば相反する情報があった場合、置き換えて平均化することができないなど、一般化せずに記憶することである。

Marketから超ド級のストラテジーをダウンロードして、テスターで動かして(テスターは信用できる))、その結果をNS、RF、SVMなどに適用してみたらどうだろう。しかも、待たされることなく、デモで試して結果を確認することができるのです。

 
Yuriy Asaulenko:

実験として、Marketから超ド級のストラテジーをダウンロードし、テスターで実行し(テスターは信用できる))、結果をNS、RF、SVMなどに提出するのはどうでしょう。しかも、待たされることなく、デモで試して結果を確認することができるのです。

だから、あなたがソースを必要とするので、保護モデレータとコンパイルすると拒否され、ソースは、それが売り手の権利を保護するために必要であるため拒否されます - 悪循環が動作します:))

しかし、ここでは何も驚くことはない。なぜなら、さまざまな職業や対象環境のロボットの法的地位は、今のところ貧弱だからだ......。

理由: