トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1626

 
mytarmailS:

確率は確率でもあり、確率でもあるように思うのですが・・・。

不確かさは違うが、確率は(あるところには)常に確率である)

ゲーム理論では、通常、ゲームの不確実性を確率的不確実性に還元しようとする。例えば、混合戦略におけるナッシュ均衡を通じて

市場にとって、確率論的モデルに変換する際の主な問題は、結果として得られるモデルが実質的に非定常であることである。

 
ケシャ・ルートフ

確かに、世の中にはおかしな人がたくさんいます。1万は味見程度で、100万の点を口に突っ込もうとするキツツキもいますよチックやタンブラーもありますし...。

そういうことでもあるんです。多くの人は、ある非常に重要な基本ルールを忘れています。NSの力を借りずに解決できる問題であれば、それを実行すべきです。この法則から、数学が使えるうちはデータを数学的に捉え、数学が無力になった時点でNSを使うということになる。つまり、入力データには最大限のフィルター処理、平滑化、正規化などが施されている必要があります。MATHEMATICは原理的に数学の範囲で、NSの応用はそれからだ。そして、NSジャンクを詰め込んで、天候の海辺で待つようなことはしない。そういうわけにはいきません。例えば、50の入力ベクトルを使って、学習中にノイズとなる不要なマーケットチャンクをすべて棄却し、この数の入力を使って、M5で2ヶ月の時間で90-95%の学習品質のモデルを得ました。この部分をすべてネットワークに流すとどうなるのでしょうか?何もない。もっと品質が悪くて使えない機種を買ってしまいそうです。そして、その筋書きは、最初のケースと同じように、2ヵ月後にあり、2番目のケースでもそのままでした。でも、結果は違うんです。
 
アレクセイ・ニコラエフ

不確かさは違うが、確率は(あるところには)常に確率である)

ゲーム理論では、通常、ゲームの不確実性を確率的不確実性に還元しようとする。例えば、混合戦略におけるナッシュ均衡を通じて

市場にとって、確率論的モデルに移行する際の主な問題は、結果として得られるモデルの非定常性が大きいことである。

すべては、情報の表現が正しくないからです。

海の波をセンチメートルの定規で測るように、非定常の過程も定常の過程と同じように扱います。

まずフラクタル構造を1次元に 変換し (非定常を定常へ変換)、次にパターン・模様を見つけ、統計・確率を求めるとよいでしょう。

 
ミハイル・マルキュカイツ
そういうことなんです。多くの人は、ある非常に重要な基本ルールを忘れています。NSの力を借りずに解決できるタスクは、必ず実行しなければならない。この法則から、数学が許す限りはデータを数学的に捉え、数学が無力になった途端にNSを使うということになる。つまり、入力データには最大限のフィルター処理、平滑化、正規化などが施されている必要があります。MATHEMATICは原理的に数学の範囲で、NSの応用はそれからだ。 そして、NSジャンクを詰め込んで、天候の海辺で待つようなことはしない。そういうわけにはいきません。例えば、50の入力ベクトルを使って、学習中にノイズとなる不要なマーケットチャンクをすべて棄却し、この数の入力を使って、M5で2ヶ月の時間で90-95%の学習品質の モデルを得ました。この部分をすべてネットワークに流すとどうなるのでしょうか?何もない。もっと品質が悪くて使えない機種を買ってしまいそうです。そして、セクションは2番目のケースで、最初の2ヶ月であったように、そうであったまま。 でも、結果は違うんです。

かっこいい!なんというか、未来の方向性を予測するときに、過去の混じりっけのない55%以上のアキュラシーを持ったことがないんです。一般的には、アキュラシーではなく、将来のreturneeとの相関をカウントする方が良いですが、この数は、(もちろん取引コストに応じて)取得されるシャープレシオに比例すると言われています。3%の相関で年間SRは十分です ~1 -1.5

 
ケシャ・ルートフ

かっこいい!なんというか、未来の方向性を予測するときに、過去の混じりっけのない55%以上のアキュラシーを持ったことがないんです。一般的には、アキュラシーではなく、将来のreturneeとの相関をカウントする方が良いですが、この数は、(もちろん取引コストに応じて)取得されるシャープレシオに比例すると言われています。3%の相関で年間SRは1-1.5%になる。

数学的に入力をフィルタリングすることで、学習サンプルを減らし、期間を短縮することなく、NSの質は向上すると思います。このように、数学によって不要なノイズを排除することができるのです。今回もオプティマイザが与える汎化性の値を書きました。つまり、期間は同じでも、出来上がったネットワークの品質が良くなり、それがフィードバックに影響するのです。IMHO
 
ミハイル・マルキュカイツ
数学的に入力をフィルタリング することで、学習サンプルを減らし、期間を短くすることなく、NSの品質が向上することは確かです。こうして、数学によって排除される不要なノイズを取り除くことができるのです。今回もオプティマイザが与える汎化性の値を書きました。つまり、期間は同じでも、出来上がったネットワークの品質が良くなり、それがフィードバックに影響するのです。 IMHO

何ですって?

 
mytarmailS:

全ては情報の表現が正しくないから...。

非定常過程は、「定規/センチメートル波」で測定される定常過程のように扱われる。

まず、フラクタル構造を1次元に 変換し (非定常→定常)、パターン・模様を見つけ、統計・確率を求めることが必要である。

実質的な非定常性がある場合、フラクタル特性は時間と共に変化するので、マルチフラクタルと言う方が正しい。このような変化は、他のものと同様に予測不可能です。

 
ケシャ・ルートフ

どういう意味ですか?

まあ、全部の分ではなく、例としてN点より大きい本体の分としましょうか。こうすることで、データ量は減りますが、サンプリング間隔は短くなりません。そして、グリッドはあなたに感謝するでしょう。

この話題は全般的に触れているので、最近は前処理でグリッドの作業を手伝っていることをお伝えしておきます。例えば、まずシーケントのパラメータを最適化すると、原理的にはタイピングシーケントを得ることができる。そして、すでに得をしているSequentaをより良くするために、ネットにお願いするのです。チーム戦ということです。セコンタが得をしている半分、残りの半分には、得をしているセコンタがさらに得をするように手助けをするネット。だから、私はNSをレイプするのではなく、ちょっと手伝ってもらうだけで、このちょっとで十分なのですと言うことです。

これらはすべて、ビデオの中で紹介されます...

 
ミハイル・マルキュカイツ

すべての分ではなく、例としてN点より大きいボディを持つものを言う。これにより、データ量は減りますが、サンプリング間隔は短くなりません。そして、グリッドはあなたに感謝するでしょう。

この話題は全般的に触れているので、最近は前処理でグリッドの作業を手伝っていると言えるでしょう。例えば、まずシーケントのパラメータを最適化すると、原理的にはタイピングシーケントを得ることができる。そして、すでに得をしているSequentaをより良くするために、ネットにお願いするのです。チーム戦ということです。セコンタが得をしている半分、残りの半分には、得をしているセコンタがさらに得をするように手助けをするネット。だから、私はNSをレイプするのではなく、少し手伝ってもらうだけで、この少しで十分だと言っているのです。

このすべては、ビデオでご覧いただけます...

あなたの場合、NSは条件を満たした分だけを分析します。このように、ネットワークのポテンシャルを、数学的に排除できる本当のゴミにシャッフルしない、これが実際に前述の条件に書かれていることである。というのは、LAW(法律)として理解するのがよいでしょう。
 
そして、エノケンティ、私は、このような役立たずのプログラマーで便利屋の私を、レシェトフ・ユーリーのような優れた人格者と同一視したことについて、公式に謝罪することを要求するものである。彼のコードや文章の作法を見れば、私がそのプログラミングの作法に感心するように、あなたもそれに感心したことでしょう。たしかに、オプティマイザーを調整したことで、最終的な性能は上がったと思いますが、彼と私を比較するのは愚かなことです。彼に比べれば、私はいつも授業をサボって、学校の裏から「えーっ!」と叫んでいるだけの予備校生です。だから、謝罪を待っているんです。
理由: