記事についてのディスカッション - ページ 8

 
Rorschach:

6代目の数学者である。

私の理解では)国内レベルでは、彼はボラティリティの周期性/クラスター性と古いtfの重要性について書いている。

抽象的な記述ではなく、数学的に計算しようとした点が興味深い。

それが、彼ら(アタマンやイリインスキー)が、各行を10回も読み直す必要がないように、簡単な言葉で紹介することを妨げている。

彼らの最初の人については、彼が非常に大きな金額を管理することでかなり成功しているというヒントがあった。だから、彼は明らかに自分の楽しみのためだけにこのすべてを書いたのだ。そして、自由な時間が十分になかったのかもしれない。

イリインスキーは、非常に高度な、しかし極めて標準的な金融数学について語っている。私なら、Rのyuima パッケージのデモンストレーションをするくらいにとどめるだろう。

The YUIMA Project
The YUIMA Project
  • yuimaproject.com
The YUIMA Software performs various central statistical analyses such as quasi maximum likelihood estimation, adaptive Bayes estimation, structural change point analysis, hypotheses testing, asynchronous covariance estimation, lead-lag estimation, LASSO model selection, and so...
 
Aleksey Nikolayev:

最初の作品については、彼が非常に大きな金額を管理することでかなり成功しているというヒントがあった。だから、彼は明らかに自分の楽しみのためだけにこの作品を書いていた。そして、自由な時間が十分になかったのかもしれない。

イリインスキーは非常に高度な、しかし極めて標準的な金融数学について語っている。私なら、Rのyuima パッケージのデモンストレーションをする程度にとどめるだろう。

私は、アバクモフの 話し方が好きだ。

 
Rorschach:

私はアバクモフの語り方が好きだ。

基本的なmatstatならPythonも悪くないが、多少高度なことをやるなら Rの 方がいい。

 
Aleksey Nikolayev:


イリインスキーは非常に高度な、しかし極めて標準的な金融数学について語っている。私なら、Rのyuima パッケージのデモをするくらいにとどめるだろう。

このパッケージは素晴らしいGUIを持っている。

ファイル:
 
Vladimir Perervenko:

このパクトは素晴らしいGUIを持っている。

それは基本的に私が考えていたものだ。タイトルページに書いてあるように、"コーディング不要"、"初心者、学生向き "だ。

 

興味深い一節だ。おそらくトレードの話題と関係があるのだろう。「価値」はおそらく間違った訳で、文脈からすると「値」の方が適切である。

多くのランダム関数には驚くべき性質がある。ヘッセ行列の固有値が 正である確率は、価値の低い領域に 近づくにつれて高くなる コイン・フリップに 例えれば、 これは 値の低い 臨界点に いる場合、イーグルを n 回連続で裏返す 確率が 高くなる ことを意味する また、価値の 低い 局地的な安値は、 価値の高い局地 的な安値よりもはるかに確率が高いことも 意味する 価値の 高いクリティカルポイントは 、サドルポイントである可能性が高い。 また、コストが非常に高い 臨界 点は、局所極大になる可能性が高い。これは多くのランダム関数に当てはまる。ニューラルネットワークの 場合は?BaldiとHornik(1989)は、 非線形性を持たない 小さなオートエンコーダ は、大域極小点と鞍 点を持つが、 大域極小 点よりも高いコストを持つ局所極小点は持たない ことを理論的に証明した

 
Rorschach:

興味深い一節だ。トレードの話題と関係があるのかもしれない。"価値 "はおそらく誤訳で、文脈からすると "値打ち "のようなものだ。

ヘッセ行列の固有値が 正である確率は、価値の低い領域に 近づくにつれて高くなる。 コイン・フリップに 例えれば、 これは 値の低い 臨界点に いる場合、イーグルを n 回連続で裏返す 確率が 高くなる ことを意味する また、価値の 低い 局地的な安値は、 価値の高い局地 的な安値よりもはるかに確率が高いことも 意味する 価値の 高いクリティカルポイントは 、サドルポイントである可能性が高い。 また、コストが非常に高い 臨界 点は、局所極大になる可能性が高い。これは多くのランダム関数に当てはまる。しかしニューラルネットワークではどうだろうか?BaldiとHornik(1989)は、 非線形性のない 小さなオートエンコーダ は、大域極小点と鞍 点を持つが、 大域極小 点よりも高いコストを持つ局所極小点は持たない ことを理論的に証明した

深層学習の問題についての何かである。

コストとは、最適化される関数の値の通称である。

 
いい話だった。 次のパートを待っている。
 
SASAN PARVIZ:
いい話だった。 次のパートを待っている。

私はそれに取り組んでいる。とてもゆっくりだけどね。)

 
Aleksey Nikolayev:

取り組んでいるよ。とてもゆっくりだけどね。)

本当にありがとう。