トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1748

 
レタグ・コノウ
NSの仕事は、オプティマイゼーションと何らかの関係があるのですね。

はい、fs(ニューロン)の最適化について。ただ、数が多いので、いろいろと連動させることができます

 
マキシム・ドミトリエフスキー

アハハハ ))))

もちろん、あるところでは失礼であり、間違っているとさえ言えますが、あるところだけです。そして、よりクリアに。極限探索の 最適化には、最長で全探索が必要です))))GSFは、はるかに高い周波数の処理に、拘束されていない低周波の処理を重ねたもので、探索の最適化は論理的に間引きされたものである。それ以外のことは理解しやすいんです。

 
レジェックス・コノウ
ある程度は必須です。自分で作ったものしか、本当の意味で理解することはできないのです。NSのコンセプトの原型を再現しようとしているのです。

コンセプトは非常にシンプルで、どんな多次元関数も1次元の関数の合成で近似できる。もう「機能」という概念を発明してほしい)

 
アレクセイ・ニコラエフ

コンセプトは非常にシンプルで、どんな多次元関数も1次元の関数の合成で近似できる。すでに「機能」という概念を発明していることを期待します)

多変量関数」という概念について、別途定義されたものは見つかりませんでした。確率論の「分布関数」があり、その中に「多変量分布関数」の一種が考えられているが、MO技術については語られていない。

多次元関数がNSと関係があるとしても、その本質からかけ離れていることは明らかである。おそらく、技術的なニュアンスの実装に関連するものでしょう。本質を理解しようとしているのです。
 
アレクセイ・ニコラエフ

コンセプトは非常にシンプルで、どんな多次元関数も1次元の関数の合成で近似できる。すでに「機能」という概念を発明していることを期待します)

マイナス1引数による1次元への分解は普通に理解できるが、この1次元の構成でどのように全探索より速く極値を見つけることができるかを説明するのは簡単である。

 
ここで、理解を深めるためにもう一つ考えておきたいことがあります。

機能(ニューロン)内のデータの一部を「重み」に変換することで、それらを統一し、ネットワークの応用を普遍化することを意図しています。
 
皆さんは、ネットワークをトレーニング する際に最適な値を見つけるというメカニズムにこだわっているようですが、トレーニングは装置の本質ではなく、プロセスの一部です。
 
タグコノウ
ここで、理解を深めるためにもう一つ考えておきたいことがあります。

機能(ニューロン)内のデータの一部を「重み」に変換することで、それらを統一し、ネットワークの応用を普遍化することを意図している。

説明用のビデオを録画してください。

 
マキシム・ドミトリエフスキー

説明付きのビデオを録画してください、とても不明瞭です

まだ早すぎて、あまり理解できていない。
 
Reg Konow:
「多次元関数」の独立した定義は見つかっていません。確率論の「分布関数」があり、その中で「多変量分布関数」のようなものが考えられていますが、MO技術については触れられていません。

多次元関数がNSと関係があるとしても、その本質からかけ離れていることは明らかである。おそらく、技術的なニュアンスの実装に関係するものだと思います。一方、私は本質を理解しようとしています。

多次元関数とは、定義域が多次元空間である通常の数学関数である。NSの場合、それは特徴空間 である。

数学者としてお聞きしたいのですが、学校では一般的に数学を勉強されたのでしょうか)?

理由: