トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2829

 
確かにptuやリベラルな価値観ではありえない。
 
СанСаныч Фоменко #:

私たちは勾配降下アルゴリズムを使っていますが、これは一般的にニューロン用ではなく、大きなひげを生やしています。勾配降下がどのように局所極限のさまざまな種類の罠を克服するかを学んだので、私たちはそれをグーグルで検索し、子供じみた質問はしない。これは、何年も前から人々が特別に行ってきたことなのだ。

あなたは、いくつかの代表的な関数で学習/最適化をテストするよう求められている。

ニューラルネットワークがそれを完璧にこなすと思っているなら、それはおそらく間違いだ。

 
Maxim Dmitrievsky #:

いくつかの代表的な機能で学習/最適化をテストすることが提案されています。

ニューラルネットワークがそれを完璧にこなすと思っているなら、それはおそらく間違いだ。

率直に言って、私は誰もが単純な真実を十分に理解していないことに驚いている。すべてはテストされるべきであり、誰かによって語られるドグマを信じることは、停滞と劣化を意味する。

勾配降下法もベクプロップ法も、あまりにも古く惨めな方法であり、いまだに一部の人々に真剣に受け止められていることが不思議である。

ところで、ジェネティクスは現在最もロバストなアルゴリズムではない。まあ、常に改善の余地があることを明確にするためにね。

 
Andrey Dik #:

ああ......率直に言って、誰もが単純な真実を十分に理解していないことに驚いている。すべてのことはチェックされるべきであり、誰かが口にしたドグマを信じることは停滞と劣化を意味する。

勾配降下法もベクプロップも、古くて惨めな方法であり、いまだに誰からも真剣に受け止められているのが不思議なくらいだ。

そこでの認識は、文明の贈り物をもたらすカルゴ・カルトや神のRへの信仰のレベルで、特殊なものである。

 

一方では、学習は最適化の特殊なケースであるが、他方ではいくつかの特殊性がある。

1) MOにおける最適化は通常、無限次元関数空間における最適化を本質的に意味する。これは明示的な形(例えば勾配ブースティング)であるが、暗黙的な形であることもある。これにより、モデルの柔軟性は飛躍的に高まりますが、有限次元の最適化に見られる明瞭さと単純さは失われます。例えば、有限次元部分空間上の極限は、より高次元の部分空間上の鞍点であることが判明する可能性がある(これはいくらでも高くできる)。

2) お行儀の良い損失関数の有限集合を使用する。これにより、最初の点から生じる問題を避けることができる。しかし、損失関数をカスタマイズしたい場合、それは不可能か非常に困難である。

 
Aleksey Nikolayev #:

一方では...

アレクセイ、ノイズの多い関数の最適化について何か知っていますか?
 
完全な探索があり、最適化がある。最適解を見つけるまでの時間を短縮するために必要なのだ。そうである以上、それは常に妥協の産物である。確率勾配法で最適化すれば、アダムよりも良い結果が得られるが、時間が犠牲になる。そして人は選択しなければならない。タスクによっては、スピードよりも精度の方が重要な場合もある。
ここで、視覚的な結果を見ることは興味深い。
 
Andrey Dik #:

それはひどい。

恐ろしいのは、最適化に関する記事を読みに来た人が、そのトピックを2割も知らないために、一般的な知識を認識できず、それに驚いてしまうことだ・・・。

さらに恐ろしいのは、資格のない人たちが、それを達人からの知識だと思い込んで、頭に膿を流し込むことだ。


そして、グルでない人たちは、すでに廃人であり、自分たちのエゴを記事と称して膿を流し込んでいるため、喜んでそれに同意している......。

これが本当の恐ろしさだ!

 
情けないスピーチをする前に、鼻くそを噛むべきだよ、プトゥシク。

そんなうまいもんじゃない。
 
mytarmailS #:

恐ろしいのは、最適化に関する記事を読みに来た人が、そのトピックを20%も知らないために、一般的な知識を認識できず、それに驚いてしまうことだ......。

さらに恐ろしいのは、資格のない人たちが頭に膿を流し込んで、それを達人からの知識だと思い込むことだ。

黙っていた方が、ずっと賢く見えるし、少なくともマナーは良くなる。
理由: