トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3317

 
Andrey Dik #:

そこにいろ。君以外はみんなバカだから、質問に答えるのは君だ。

あれは何?あそこの赤い赤みは何?丸くて赤い、あそこ。


こんなグラフ見たことない。

虚構主義者め、ありもしないことをでっち上げて無理やり議論している。

ここで何年もボヤくより、実際に何かのモデルからそのようなグラフを得るのが普通だ。

 
つまり、あなたのグラフのグローバル・ローでは、シャフトカーブが可能な限り上に行くため、大きなオーバートレーニングが発生する。
 
Andrey Dik #:

学習とは、関数の一部のメンバーなしで関数の答えを見つけることだと考えていますが、正しく理解していますか?

たとえば,A+B+C=Yのオブザベーションがあり,AとBは予測変数で,Cは未知である.最適化を通してサンプルの答え(マークアップ)を知り,NSの場合は係数による乗算を含む操作,または相互ルールを通して表現できるC値の補償を選択するすなわち、欠落している変数を置換し、正しい答えに近づくために、関数を積極的に調査する。サンプルにおける関数計算の結果は、十分に代表的なものであり、その結果を新しいデータに使用することができると仮定される。

しかしながら、テスターでの最適化の場合、我々は、変数の値を変更することができます(本質的にそれらを関数として表現します)、我々はそれらを知らないと仮定して、あるいは、どれがY値を近似するルールの形で我々の代償関数により重みを与えるかさえ知っています。

 

ティーチャーが何であるかはすでに知っているので、今一度アンドリューのために写真を撮ろう。

https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D0%BB%D0%B5%D0%BC%D0%BC%D0%B0_%D1%81%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%E2%80%93%D0%B4%D0%B8%D1%81%D0%BF%D0%B5%D1%80%D1%81%D0%B8%D0%B8

 

チャットGPTから さらなる質問。


Max, [2023/10/26, 18:59:31]です:

変位-分散ジレンマはグローバルミニマムを見つけることにどう関係しますか?


ChatGPTとMidjourney|AIボット、[2023年10月26日 18:59:38]:

偏り-分散のジレンマとは、機械学習におけるモデル選択問題のことです。モデルの複雑さが増す(例えば、新しい特徴を追加したり、パラメータ数を増やしたりする)と、モデルの予測値の分散(広がり)が増えますが、より単純なモデルに偏り(誤差)が生じる可能性があることを示しています。


一方、グローバル・ミニマムを見つけるとは、モデルのパラメータを最適化することです。目標は、誤差関数の最小値が達成されるパラメータ値を選択することです。しかし、パラメータの数が多く、モデルが複雑な場合、グローバル・ミニマムを求めることは困難であるか、不可能でさえある。


このように、バイアスと分散のジレンマとグローバルミニマムの探索は、機械学習問題に対して複雑すぎるモデルを選択するとオーバートレーニング問題(高分散)を引き起こし、単純すぎるモデルを使用するとアンダートレーニング問題(高バイアス)を引き起こすという点で関連している。これはグローバル・ミニマムの発見を困難にし、最適な結果をもたらさない。したがって、最適な結果を得るためには、モデルの複雑さとデータを汎化する能力のバランスを見つけることが重要である。

 

Max, [2023年10月26日 19時03分50秒]:

この場合、最適モデルはグローバルミニマムに対応するはずですが、そうではありませんか?


ChatGPT & Midjourney|AIボット, [2023年10月26日 19時03分54秒]:

いいえ、最適なモデルは必ずしもグローバルミニマムに一致するわけではありません。場合によっては、特にデータにノイズがある場合、モデルを再トレーニングすることでグローバルミニマムを達成することができます。そのようなモデルは、訓練データでは高い精度を示すかもしれませんが、新しい例に対するデータの汎化がうまくいきません。


その代わり、最適なモデルはグローバル・ミニマムに近いが、分散とバイアスが小さいものでなければならない。そのようなモデルは、新しいデータに対して安定した正確な予測を行います。したがって、最適モデルを選択する際には、訓練データに対するモデルの精度だけでなく、新しい例に対する汎化能力も考慮することが重要である。

 
Aleksey Vyazmikin #:

学習とは、関数の一部のメンバーなしで関数の答えを見つけることだと、私は正しく理解していますか?

たとえば,A+B+C=Yのオブザベーションがあり,AとBは予測変数で,Cは未知である.最適化を通してサンプルの答え(マークアップ)を知ることで,我々はC値の補償を選択するすなわち、欠落した変数を置き換え、正しい答えに近づくために、関数を積極的に調査する。また、サンプルの関数計算の結果が十分に代表的であることが前提であり、その結果、新しいデータで使用することが可能になる。

しかしながら、テスターでの最適化の場合、我々は変数の値を変更することができます(本質的にそれらを関数として表現します)。

質問の意味がよくわかりません。明確にしてください。

 
Maxim Dmitrievsky chatGPTに 聞く。


マックス、[2023年10月26日 18:59:31]:

変位-分散ジレンマはグローバルミニマムの探索にどのように関係しますか?


ChatGPT & Midjourney|AI bot, [26 Oct 2023, 18:59:38]:

偏り-分散のジレンマとは、機械学習におけるモデル選択問題のことです。モデルの複雑さが増す(例えば、新しい特徴を追加したり、パラメーターの数を増やしたりする)と、モデルの予測値の分散(広がり)が増えますが、より単純なモデルに偏り(誤差)が生じる可能性があることを示します。

回帰ではなく、分類における誤差の分散(広がり)を考慮することはどのように提案されていますか?

 
Maxim Dmitrievsky #:

マックス、[2023年10月26日 19:03:50]:

この場合、最適なモデルはグローバルミニマムに対応するはずですが、そうではありませんか?


ChatGPT&Midjourney|AIボット、[2023年10月26日 19:03:54]:

いいえ、最適モデルは必ずしもグローバルミニマムに一致するわけではありません。場合によっては、特にデータにノイズがある場合、モデルを再トレーニングすることでグローバルミニマムを達成することができます。そのようなモデルは、訓練データでは高い精度を示すかもしれませんが、新しい例に対するデータの汎化には不十分です。


その代わり、最適なモデルはグローバル・ミニマムに近いが、分散とバイアスが小さいものでなければならない。そのようなモデルは、新しいデータに対して安定した正確な予測を行います。したがって、最適モデルを選択する際には、訓練データに対するモデルの精度だけでなく、新しい例に対する汎化能力も考慮することが重要である。

GPTに尋ねよう、いつトレーニングをやめるべきか?あなたはまだその質問に自分で答えていない。

 
Andrey Dik #:

質問の意味がよくわかりません。はっきりさせてください。

つまり、私の計算は正しくなく、答えは「ノー」である。

理由: