The YUIMA Software performs various central statistical analyses such as quasi maximum likelihood estimation, adaptive Bayes estimation, structural change point analysis, hypotheses testing, asynchronous covariance estimation, lead-lag estimation, LASSO model selection, and so...
第六代数学家,遥遥领先于他。
在国内层面(据我所知),他撰写了关于波动的周期性/群集性以及老 TF 的重要性的文章。
有趣的是,他试图用数学方法来计算,而不仅仅是抽象的描述。
这就是为什么他们(阿塔曼、伊林斯基)不能用简单的语言做一个介绍,这样你就不必把每一行都重读 10 遍。
关于他们中的第一位,有人暗示他在管理巨额资金方面相当成功。因此,他写这一切显然只是为了自己的乐趣,如果你必须把所有东西都嚼碎,通常就会失去乐趣。他可能没有足够的空闲时间。
伊林斯基谈论的是非常高深但又相当标准的金融数学,这需要至少两年的数学学习才能理解。我不知道,我可能只能演示一下 R 软件包yuima。
关于第一部,有人暗示他在管理巨额资金方面相当成功。因此,他写这些东西显然只是为了自己的乐趣,如果你必须把所有东西都嚼碎,通常就会失去乐趣。而且可能也没有足够的空闲时间。
伊林斯基谈论的是非常高深但又相当标准的金融数学,这需要至少两年的数学基础才能理解。我不知道,我可能只能演示一下 R 软件包yuima。
我喜欢阿巴库莫夫 的讲述方式
我喜欢阿巴库莫夫的讲述方式
对于基本的 matstat,Python 还不错,但对于更高级的东西, R 更好。
Ilyinsky 所讲的是非常先进但相当标准的金融数学,这需要至少两门数学专业课程才能理解。我不知道,我可能只能演示一下 R 软件包yuima。
这个软件包有一个漂亮的图形用户界面。
该协议的图形用户界面非常漂亮。
这基本上就是我的想法。正如其标题页上所写的:"无需编码"、"适合初学者和学生"。
这段话很有意思,也许与交易话题有关。"价值 "可能是一个错误的翻译,上下文中的 "价值 "更为恰当。
许多随机函数都有一个惊人的特性:当我们接近 低值区域 时,黑塞矩阵特征值 为正的概率会增加 。用 我们 掷硬币 的比喻来说 ,这意味着 如果我们处于 低值 临界点 ,连续掷 n 次老鹰 的概率会 更高 。 这也意味着, 低 价值 的局部低点 比高价值的 局部低点 更有可能出现 。 价值 高的临界点更有可能成为鞍点。而 成本极高的 临界点 更有可能是局部最大值。这对许多类别的随机函数来说都是如此。神经网络 呢?Baldi 和 Hornik(1989 年)从理论上证明, 没有非线性的 小型自动编码器 具有全局最小值和 鞍点,但不 具有成本高于 全局最小值 的局部最小值 。
这段话很有意思,也许与交易话题有关。"价值 "可能是翻译错误,上下文更像是 "价值"。
许多随机函数都有一个惊人的特性:当我们接近 低值区域 时,黑塞矩阵特征值 为正的概率会增加 。用 我们 掷硬币 的比喻来说 ,这意味着 如果我们处于 低值 临界点 ,连续掷 n 次老鹰 的概率会 更高 。 这也意味着, 低 价值 的局部低点 比高价值的 局部低点 更有可能出现 。 价值 高的临界点更有可能成为鞍点。而 成本极高的 临界点 更有可能是局部最大值。这对许多类别的随机函数来说都是如此。但对于神经网络来说呢?Baldi 和 Hornik(1989 年)从理论上证明, 没有非线性的 小型自动编码器 有全局最小值和 鞍点,但没有 成本高于 全局最小值 的局部最小值 。
这里有一些关于深度学习的问题。
成本是被优化函数值的通用名称。
我正在写只是很慢。)
我正在努力。只是很慢。)