交易中的机器学习:理论、模型、实践和算法交易 - 页 563

 
马克西姆-德米特里耶夫斯基

呃......从一开始就读了整个主题,到我的出现......现在我已经看到了一切

但那里没有圣杯......太糟糕了,那就继续挖吧。

这是个正确的决定。论坛上的NS理论远非理想。
 
亚历山大_K2
这是一个正确的解决方案。论坛上的NS理论远非理想。

我写下的唯一一件事是关于三元分类器,以及解开Yuriy Asaulenko 的谜团

 
亚历山大_K2
这是个正确的决定。论坛上的NS理论远非理想。
而且这里根本就不需要它。整个理论早在我们之前就已经奠定了。)
 
马克西姆-德米特里耶夫斯基

我唯一写下的是关于三元分类器和解开尤里-阿索连科 之谜的内容

这是我第一次做蝴蝶结--尤里并不像他看起来那么简单。物理学家!我理解他的工作--就像他有两个平行的过程在进行。一个是概率性的,指出现在似乎是达成交易的时候了。第二个--NS--给予或拒绝。我不说别的了--让他自己说吧。
 
马克西姆-德米特里耶夫斯基

我唯一写下的是关于三元分类器,以及解开Yuriy Asaulenko的 谜团

那你是在哪里找到这个谜团的。

MLP是~60个神经元。该算法是标准的BP。学习--走到哪算哪,即我不知道NS在那里学习什么。此外,所有的学习原则在经典的专著中都有概述--海金、毕晓普。软不是MQL。

本专题中给出了基本原则。

 
尤里-阿索连科

那你是在哪里找到这个谜团的。

MLP是~60个神经元。算法--标准BP。学习--去我不知道的地方。即我不知道NS在那里学什么。此外,所有的学习原则在经典的专著中都有概述--海金、毕晓普。软不是MQL。

本专题中概述了基本原则。


这是个玩笑:))

 
马克西姆-德米特里耶夫斯基

这是个玩笑:)

不,那里真的没有别的东西。你认为海金和毕晓普已经无可救药地过时了,正在寻找新的东西(你以前写过)。它们对我来说已经很足够了。
 
尤里-阿索连科
不,那里真的没有别的东西。你认为海金和毕晓普已经无可救药地过时了,要寻找新的东西。他们对我来说已经很足够了。

不,我的意思是我在开玩笑......你是这个主题中唯一一个最后能想出办法的人 :)

你需要谷歌一下使用蒙特卡洛方法进行感知器训练。

一般来说,这种方法与RL(强化学习)非常相似,当时有一个学习代理,NS正在学习寻找最佳解决方案。

 

这就是阿尔法围棋的训练方式(尽管以前认为这是一个创造性的游戏,机器不可能在其中击败人类)。

这里是赢家。

https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/

Нейросеть AlphaGo перевели на самообучение
Нейросеть AlphaGo перевели на самообучение
  • 2017.10.20
  • techfusion.ru
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
 
马克西姆-德米特里耶夫斯基

不,我的意思是我在开玩笑......你是这个主题中唯一一个最后能想出办法的人 :)

你需要谷歌一下使用蒙特卡洛方法进行感知器训练。

一般来说,这种方法与RL(强化学习)非常相似,当你有一个学习代理,NS正在学习寻找最佳解决方案时

顺便说一句,这在很大程度上要归功于你。当我刚开始时,是你给了我雷舍托夫文章的链接。总的来说,这篇文章没有什么价值,更像是一个应用实例,但它或多或少地变得清晰了,在哪里可以驾驭马。

我不知道谷歌中是否有这样的方法,因为我自己最终来到了蒙特卡洛。

也不知道RL,但从你的简单描述来看,这听起来像我的方法。

我在谷歌上找到了蒙特卡洛 -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf 只是它绝对不同。