Про нейронные сети, как один из инструментов решения трудноформализуемых задач уже было сказано достаточно много. И здесь, на хабре, было показано, как эти сети применять для распознавания изображений, применительно к задаче взлома капчи. Однако, типов нейросетей существует довольно много. И так ли хороша классическая полносвязная нейронная...
То, о чем я попытаюсь сейчас рассказать, выглядит как настоящая магия. Если вы что-то знали о нейронных сетях до этого — забудьте это и не вспоминайте, как страшный сон. Если вы не знали ничего — вам же легче, полпути уже пройдено. Если вы на «ты» с байесовской статистикой, читали вот эту и вот эту статьи из Deepmind — не обращайте внимания на...
以这种方式评估交易的很难,因为还有一个交易持续时间,止损位也需要加入其他的东西,而且需要定期重新训练......所以,总的来说,是个遗憾 :)
是的,我已经看了很久了。它本身并不太坏,但云雾缭绕的情况不太适合建造TS。
你可以出售信号:))通过api访问,如果模型是酷的。
坐在那里。阅读国防部专著的PDF文件。引用。
事实证明,也没有必要抽动,NS似乎是最好的选择。
坐在那里。阅读国防部专著的PDF文件。引用。
事实证明,也没有必要抽动,NS似乎是最好的选择。
而我在阅读海金的同时也在观看
这部电影很有气氛......最后什么会赢? 蛋白质生命还是人造生命,还是会有介于两者之间的东西被创造出来?:)
顺便说一下,有些消息来源说,最近流行概率论的NN。我的朋友小声说......但他对它们了解很多,他参加了谷歌的比赛。
而且我一直在读海金的书,看
这部电影很有气氛......最后什么会赢? 蛋白质生命还是人造生命,还是会有介于两者之间的东西被创造出来?:)
顺便说一下,一些消息来源说,最近流行概率论的NN。我的朋友这么说......但他对这些东西了解很多,他参加了谷歌的比赛。
昨天我发现卷积NN--通常用于图像识别。自然,还有所有的公用事业--培训等。为在Python中使用而制作。
还有反复出现的等等,但还不是很有趣。
由于卷积网络不是完全网格化的,我们可以大大增加神经元的数量而不损失性能。但我必须了解细节,我还没有进入细节。
热门描述 -https://geektimes.ru/post/74326/昨天我发现了一个卷积NS--通常用于图像识别。自然,所有的公用设施都可以使用--培训等。为在Python中使用而制作。
还有反复出现的等等,但还不是很有趣。
由于卷积网络不是完全网格化的,我们可以大大增加神经元的数量而不损失性能。但我仍然要深入了解细节--我还没有进入这个领域。
热门描述 -https://geektimes.ru/post/74326/嗯,这很深,它们主要用于图像和计算机视觉。你需要大量的例子和层次来使它发挥作用。建筑本身复制了视觉系统
试试Python PNN,它们对时间序列预测更有意义。
https://habrahabr.ru/post/276355/
嗯,这是在后方,它们主要用于图像和计算机视觉。这需要大量的例子和层次来使其发挥作用。建筑本身复制了视觉系统
在预测时间序列时,它们对我来说似乎更有意义,因为它们可以代替PNN python等价物。
https://habrahabr.ru/post/276355/
再一次,我没有预测什么。我只有一个分类。
我一直在寻找一个不完整的网络,已经有很长一段时间了。MLP都是好的,但在那里所有的输入都是一次性进入每个神经元的。啊,这正是我们需要的,这样,只有5-6个移位的输入进入神经元,这就是卷积式NS。
这里没有什么复杂的东西,你只需要100-150个神经元,因此,由于神经元的输入较少,结构简单,速度快,如同有60个神经元的MLP。
再次强调,我不是在预测什么。我只有一个分类。
我一直在寻找一个不完整的网络,已经有很长一段时间了。MLP都很好,但所有的输入都是一次性进入每个神经元。啊,这正是我们需要的,这样,只有5-6个移位的输入进入神经元,这就是卷积式NS。
这里没有什么复杂的东西,我们只需要100-150个神经元,所以结构很简单,速度会像有60个神经元的MLP一样,代价是神经元的输入数量减少。
好吧,有一个分类器,什么阻止你寻找一个不完整的分类器。比如说,这就是我喜欢的方式。
这本书将充满屏幕截图 :)
我再次强调,我不是在预测什么。我只有一个分类。
我一直在寻找一个不完整的网络,已经有很长一段时间了。MLP都很好,但所有的输入都是一次性进入每个神经元。啊,这正是我们需要的,这样,只有5-6个移位的输入进入神经元,这就是卷积式NS。
这里没有什么复杂的东西,我们只需要100-150个神经元,所以结构很简单,速度会和有60个神经元的MLP相似,因为神经元的输入数量较少。
使用卷积层的想法已经酝酿了很久了。我认为他们能带来好的结果。
但不要扔掉多层透镜。聚合网络 本身并不学习任何东西,它们只是提供一些输入信息的紧凑图像。
有一个分类器,那么有什么可以阻止你去寻找一个不完整的分类器。