トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1258

 
エリブラリウス

数式が多い((

さて ) Rパッケージへのリンクがあります。私自身はRを使っていないので、数式は理解しています。

Rをお使いの方はお試しください )

 
マキシム・ドミトリエフスキー

さて ) Rパッケージへのリンクがあります。私自身はRを使っていないので、数式は理解しています。

Rをお使いの方はお試しください )

今朝の記事はまだ開いています:https://towardsdatascience.com/bayesian-additive-regression-trees-paper-summary-9da19708fa71

最も残念な事実は、このアルゴリズムのPython実装が見つからなかったことです。著者らはRパッケージ(BayesTrees)を作成したが、いくつかの明らかな問題点-主に「予測」関数の欠如-があり、bartMachineという 別の、より広く使われている実装が作成された。

このテクニックを実装した経験のある方、またはPythonのライブラリをご存知の方は、コメントにリンクを残してください

だから、ファーストパッケージは予測できないから意味がない。
2つ目のリンク先には、再び数式が掲載されています。

ここでは、わかりやすい普通の木を紹介します。すべてがシンプルでロジカルです。しかも数式なしで。

 
マキシム・ドミトリエフスキー

おそらく、まだリブには手をつけていないのでしょう。木は巨大なベイズのトピックの特殊なケースに過ぎない。例えば、本やビデオの例はここにたくさんある

Vladimirの論文に従って、NSのハイパーパラメータのベイズ最適化を行いました。よく効くんですよ。
でも、最適化する変数が多いと、ああも長くなってしまうんです。


マキシム・ドミトリエフスキー

何の木と同じように...ベイジアンニューラルネットワークがあります。

意外と知らない!?
NSは、数学演算の+と*を使い、MAからデジタルフィルタまで、あらゆる指標を自身の内部で構築することができます。
しかし、木は単純なif(x<v){左の枝}else{右の枝}で右と左に分かれるのです。
それともif(x<v){左の枝}else{右の枝}でもいいのでしょうか?

 
エリブラリウス
でも、最適化する変数が多いと、ウンザリするんですよね。


意外と知らない!?
NSは、数学演算の+と*を使用し、MAからデジタルフィルタまで、あらゆるインジケータを内部で構築することができます。
木は単純なif(x<v){左の枝}else{右の枝}で左右に分かれる。
それともベイジアンNSもif(x<v){left branch}else{right branch}なのでしょうか?

そうですね、遅いので、今までの有用な知識から引っ張ってきて、いくつかのことを理解することができます。

いや、ベイジアンNSでは、分布から重みをサンプリングして最適化するだけで、出力も選択肢をたくさん含むが、平均や分散などを持つ分布になるのです。つまり、実際にはトレーニングデータセットに存在しないが、先験的に想定されている多くの変種を捕らえることができるのです。このようなNSは、サンプル数が多ければ多いほど、通常のNSに収束していく。つまり、ベイズアプローチは、あまり大きくないデータセットに対して最初に用いられる。これが今のところ分かっていることです。

つまり、このようなNSは、あまり大きなデータセットを必要とせず、結果は従来のものに収束する。しかし、学習後の出力は点推定ではなく、各サンプルの確率分布となる。

 
マキシム・ドミトリエフスキー

遅いからこそ、今のところ役に立つ知識を引き出して、いくつかのことを理解することができます。

いや、ベイジアンNSでは、分布から重みをサンプリングして最適化するだけで、出力も選択肢をたくさん含むが、平均や分散などを持つ分布になるのです。つまり、実際にはトレーニングデータセットに存在しないが、先験的に想定されている多くの変種を捕らえることができるのです。このようなNSは、サンプル数が多ければ多いほど、通常のNSに収束していく。つまり、ベイズアプローチは、あまり大きくないデータセットに対して最初に用いられる。これが今のところ分かっていることです。

つまり、このようなNSは、あまり大きなデータセットを必要とせず、結果は従来のものに収束する。しかし、学習後の出力は点推定ではなく、各サンプルの確率分布となる。

まるでスピードのように走り回り、一つずつ、また一つ......と、無駄なことを繰り返している。

自由な時間がたっぷりあるようですが、どこかの紳士のように、ニューラルネットワークから基本を急がず、仕事、キャリアアップに励んでください。

信じてください、普通の証券会社では、科学的な言葉や記事には誰もお金をくれません、世界のプライムブローカーによって確認された株式だけです。
 
マキシム・ドミトリエフスキー

焦らず、シンプルなものから複雑なものまで一貫して勉強している

仕事がなければ、例えばmqlで何かを書き換えるというようなことを提案することもできます。

私も皆と同じように大家のために働いている、働かないのはおかしい、自分も大家、跡取り、金づる、普通の男なら路上で3ヶ月で職を失えば半年で死んでしまうのだ。

 
マキシム・ドミトリエフスキー

トレーディングのMOについて全く何もないなら、散歩でもしてろ、ここにいるのは乞食だけだと思うだろうが)

私はIRでそれらをすべて示した、正直に、子供じみた秘密、でたらめ、テストの誤差は10〜15%ですが、市場は常に変化している、貿易は行っていない、ゼロに近いチャタリングを行います。

 
マキシム・ドミトリエフスキー

要するに、消えろ、ヴァシャ、泣き言には興味ないんだよ

泣き言ばかりで結果が出ない、水面にフォークを掘って終わり、でも時間の無駄を認める勇気はない

軍隊に入るか、せめて建設現場で男と肉体労働すれば、人格が向上するはずだ。
 
マキシム・ドミトリエフスキー

そうですね、遅いので、今までの有用な知識から引っ張ってきて、いくつかのことを理解することができます。

いや、ベイジアンNSでは、分布から重みをサンプリングして最適化するだけで、出力も選択肢をたくさん含むが、平均や分散などを持つ分布になるのです。つまり、実際にはトレーニングデータセットに存在しないが、先験的に想定されている多くの変種を捕らえることができるのです。このようなNSは、サンプル数が多ければ多いほど、通常のNSに収束していく。つまり、ベイズアプローチは、あまり大きくないデータセットに対して最初に用いられる。これが今のところ分かっていることです。

つまり、このようなNSでは、あまり大きなデータセットを必要とせず、結果は従来のものに収束するのである。

例のようなベイズ曲線を10ポイントずつ投影して、この曲線から100ポイントとか1000ポイントとか取って、それを使ってNS/フォレストを教えるようなことでしょうか。
ウラジミールのベイズ最適 化の記事へのコメント(https://www.mql5.com/ru/forum/226219)から、複数のポイントに渡ってカーブをプロットする方法を紹介します。でも、それならNSや森林も必要ない。この曲線の右にある答えを探せばいいんです。

もう一つの問題は、オプティマイザーが学習を怠ると、NSに訳の分からないゴミを教えてしまうことだ。
ここでは3つの特徴量についてベイズの仕事
サンプルが教えられる

Обсуждение статьи "Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN"
Обсуждение статьи "Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN"
  • 2018.01.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN: Автор: Vladimir Perervenko...
 
マキシム・ドミトリエフスキー

スレにいるクズ共のせいで全く面白くない。

独り言のような愚痴をこぼしながら

何を話すんだ?あなたは、新参者を感動させるために、リンクやさまざまな科学の抽象的なものを集めているだけです、SanSanychは彼の記事ですべてを書いており、追加することはあまりありません、今、別の売り手と記事ライターが恥ずかしさと嫌悪感で彼らの投石器ですべてを塗りつぶしました。彼らは自らを「数学者」と呼び、「量子」と呼ぶ・・・・・。

このhttp://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20I.pdf を読んでみる数学が欲しい。

そして、あなたは数学者ではなく、はみ出し者であることが理解できないでしょう。
理由: