補間、近似など (alglibパッケージ) - ページ 11

 
Maxim Dmitrievsky:

時間短縮のためにやったことがある人がいるかどうか聞いただけです。

なんてバカな質問でしょう。

なぜ攻撃的なのか?

というのも、他の人が書いたコードを他の言語に翻訳することは、それほど簡単なことではないような気がするのです。

 
Aleksey Vyazmikin:

その攻撃性はどこから来るのでしょうか?

というのも、他の人が書いたコードを他の言語に翻訳することは、それほど簡単なことではないような気がするのです。

抽象的なものに水を差したくないだけだ

 
Maxim Dmitrievsky:

ただ、抽象的なことに水を差したくはない

だから、実はもうちゃんと水を注いでいるわけで、もしかしたらそれを実行できる人がいるかもしれない。

 
Aleksey Vyazmikin:

だから、実際、すでにたくさん注ぎ込んでいるのだが、もしかしたら、それを実現できる人が現れるかもしれない。

このメッセージの意味は何ですか?私自身、ほとんどやってしまっています。面白いことばかりではなく、本来は初歩的なことがあるのですが

 
Maxim Dmitrievsky:

このメッセージのポイントは何でしょうか。自分でもやりかけたことがあります。誰もが興味を持つわけではありませんし、本質的には初歩的なことです。

結局、この諺は「善は急げ、悪は急げ」という私たちの対話と相性が良いのです。私は、あなたのニーズを別の言葉で表現することで、あなたを助けたいと思い、否定と恨みを受けることになりました。歩いていく。

 
Aleksey Vyazmikin:

結局、「善は急げ、悪は急げ」という諺が、私たちの対話によく合っているのだと思います。私は、あなたのニーズに別の表現を与えることによってあなたを助けたいと思い、否定と憤慨に終わった。歩いていく。

同じことを書いても、言葉を並べ替えたり、自分の経験を文脈に加えたりしているのですね )その結果、「形質の転換」というシンプルな言葉が、潜在意識の奥深くにあるイメージのどこかに入り込んでしまったのです。

 

このプロジェクトの目的は、ずっと以前から理解していました。実は、前回のRDFの記事で、Maxim氏には、for Somethingのために、市場変化に応じて即座に機能や戦略を 変更するような実装をお願いしました。

しかし、今のマキシムはMQLに「カーネルトリック」や「スプライン」など、私にとっては全く新しい概念を持ち込んでいます。理論的にはどちらも期待できそうですが、最終的な結果には疑問が残ります。そうでなければ、強化学習の結果をもたらすには不十分です。

簡単な実施方法はいくつかあるのですが例えば、OnInit()関数でトレーディングシステムのバスケットを使用し、switchを使用するだけです。

私の考えでは、機械学習のアルゴリズムがFX市場で機能するためには、次の3つの条件を満たす必要があります。

1.最適化時の学習データからの学習速度

2.トレードエントリー時、エグジット時の学習済みデータからの計算速度

ランダムな挙動を示さず、学習を繰り返すことにより、時間とともに自動的に収束するアルゴリズム

もし、強化学習アルゴリズムが上記のいずれかのタスクを実行できなければ、それは単なる試行錯誤のアルゴリズムに過ぎない。

前回のMaximのRDFに関する記事は、最初の2つの目標はうまく達成できましたが、3つ目のタスクは達成できませんでした。

しかし、MaximがKernelのトリックとスプラインを使って完成させることができるという希望を持って、次の記事を待ち望んでいるところです。

 

私はトピックを読んで、イモ、すでにフォーラムを支配しているおなじみのスタイル - 誰もが自分の、痛いポイント、時折彼の隣人を怒らせるために気を取られてについて排他的に話す。

また、技術的な話ですが、カーネルのトリック、特徴空間の マッピングというと、参照ベクトルのような線形分類器に関してのみ理解できますが、木や森、ニューラルネットワークはなぜブラックボックスの中に独自のカーネルを持つのでしょうか?

また、外部式を作るだけの作業であれば、無関係な補間や近似よりも、記号回帰や遺伝的プログラミングの方がかっこいいと私は思います)。

 
Ivan Negreshniy:

まあ、技術的には、カーネルのトリック、特徴空間のマッピングの話であれば、参照ベクトルのような線形 分類器との関係だけで、はっきりしているのですが、木、森、ニューラルネットワークは、なぜブラックボックスの中に、独自のカーネルを持つ必要があるのでしょう。

非線形なものなぜ怒る?

が、コンビナトリアルカーネル。小さな血液でエラーを減らすことが課題ですが、これは成功しました。ニューラルネットワークで150層を構築し、1層/1ニューロンを削除していく。もっと悪くなるし、遅くなる。

また、1〜2万個のモデルを30分でトレーニングすることができます :)

 
Maxim Dmitrievsky :

何のためにノンリニア?

が、複合核である。課題は、低血によるエラーを減らすことですが、これはうまく得られました。ニューラルネットを150層巻き上げ、1層のheavy neuronを削除します。より悪く、より遅くなる。

で、1〜2万個のモデルを30分でトレーニングすることができます :)

トレーニングのスピードについては素晴らしいですね :)

しかし、取引開始時に、アルゴリズムがこのような多数の学習済みモデルを迅速にチェックし、正確な取引判断を下すことができると確信がありますか?

つまり、通常のVPSでは、モデルのチェックから取引決定まで、平均してどれくらいの時間差を見込んでいるのでしょうか。それとも、前回の記事と同様の取引方針をとるのでしょうか?

理由: