交易中的机器学习:理论、模型、实践和算法交易 - 页 600

 
Ivan Negreshniy:
查一查,但问题是网络上没有多少新鲜的、系统的关于在规模水平上处理低级NS结构的信息,因为我们的研究人员甚至很少深入到后端,比如TensorFlow,大多数人都在Theano、Keras、Torch或不成熟的R水平之上。

没必要傻乎乎的。TensorFlow、Theano、Torch和CNTK都是用于深度神经网络 训练的低级自动区分库。在它们上面有很多上层建筑,其中最常见的是Keras。对于一个普通用户(不是神经网络专家)来说,使用高级的是很方便的(更容易和更快)。

我很感兴趣,你用的是什么图书馆?或者只是听说过他们?

祝好运

 
弗拉基米尔-佩雷文科

别傻了。TensorFlow、Theano、Torch和CNTK都是用于深度神经网络训练的低级自动区分库。在它们上面有很多上层建筑,其中最常见的是Keras。对于一个普通用户(不是神经网络专家)来说,使用高级的是很方便的(更容易和更快)。

我很感兴趣,你用的是什么图书馆?或者只是听说过他们?

祝好运


是的,你应该更仔细地阅读,不要胡乱说话。

这是关于后端,我希望你不需要解释这个意思,而前端是针对用户界面的,是一个更高的层次。

至于兴趣,也许你听说过图TensorFlow,协议缓冲区,不同平台和语言的代码生成,即基本上是低级别的,所以我只对我的NS和MQL语言做同样的事情。

你可能没有听说过它--海莱曼EA发生器。


关于交易、自动交易系统和交易策略测试的论坛。

交易中的机器学习:理论与实践(交易,不仅仅是交易)。

Aleksey Terentev, 2018.01.23 06:39

是的,我有困难。我很难理解为什么有些人觉得离开自己的脚跟并努力工作是如此困难。
是的,我在这个主题里闲逛,干扰别人的答案,而不是建设性地考虑问题。
_Let's have a constructive discussion about deep learning? Python application? Learning with a teacher on good signals?
我没有人可以和我讨论。而你刚才说你找不到任何东西。好吧,那是不可能的。
是的,我在给一个傻瓜讲课。毕竟,对手自己应用了含蓄的嘲讽,混淆了术语,并犯了几个逻辑错误。

我也提前道歉了,因为我写的是感慨。

我还为你提供帮助,让你了解创建神经网络的工具的工作原理。没有任何讽刺和挖苦。


我希望你也明白,从我上面写的内容来看,我可能有兴趣在什么方向上帮助你。

图形可视化、NS拓扑结构、序列化、ProtoBuf格式、批量处理和N维数组的导入/导出 NS的NumPy权重等。

如果你有这方面的信息或实施经验,乐意与之讨论。

 
伊万-内格雷什尼


嗯,是的,并不是说胡言乱语,你应该更仔细地阅读。

这是关于后端,希望你不需要解释这个意思,而前端是针对用户界面的,也就是更高层次的。

我们不要争论术语问题。下面是一段摘录。

"使用TensorFlow库"

最近,繁荣的深度神经网络领域已经被一些开源库所丰富。广泛宣传的TensorFlow(谷歌)CNTK(微软)Apache MXNet 和许多其他。由于所有这些和其他主要的软件开发商都是R联盟的一部分,所以为所有这些库提供了一个R的API。

上述所有的库都是非常低级的。对于学习这一领域的初学者来说,他们很难掌握。考虑到这一点,Rstudio团队为R开发了keras 包。

Keras是一个高水平的神经网络API,其设计重点是能够快速实验。能否以尽可能少的延迟从想法到结果是做好研究的关键。Keras有以下主要特点。

  • 允许你在CPU或GPU上平等运行。

    友好的API,允许深度学习模型的简单原型设计。

  • 内置支持卷积网络(用于计算机视觉)、递归网络(用于序列处理)以及两者的任何组合。
  • 支持任意的网络架构:多输入或多输出的模型,层共享,模型共享等。这意味着Keras适用于构建基本上任何深度学习模型,从记忆网络到图灵神经机。
  • 它能够运行在几个后端之上,包括TensorFlow、CNTK或Theano。

至于兴趣,也许你听说过TensorFlow图,协议缓冲区,不同平台和语言的代码生成,即基本上是低水平的,所以我也是这样做的,只是针对我的NS和MQL语言

我不仅听说过它,而且我还在使用它。但用R语言在MT中执行。所以我们有不同的方法和方向。我的发展对你没有用处。

你可能没有听说过------Hlaiman EA发电机。

我听说过它,读过它。这不是我想走的路。

我希望你能从我上面写的内容中明白,我可能感兴趣的方向。

图形可视化,NS拓扑结构,序列化,ProtoBuf格式,批量处理和N维数组NumPy权重的导入/导出等。

如果你有这样的信息或实现的经验,我愿意与你讨论。

我将再次重复。我们有一个不同的方法和方向。我的经验对你没有用处。

祝好运
 

弗拉基米尔-佩雷文科

对于初学者来说,这是一个难以学习的领域。考虑到这一点,Rstudio团队为R开发了keras

祝好运

我不明白你说的Keras是什么意思。就在昨天,我读到它是TensorFlow的一个高级插件,我甚至看到了它的一个实例。没有R,只有Python。
 
马克西姆-德米特里耶夫斯基

有趣的是,我没有在任何地方看到关于这种串联的描述......我得去查一查


早在2007年,他们就建立了3-5个战略的委员会,工作质量有了很大提高。但委员会的问题是,三个人中至少有两个人应该是足够的,那么他们会把委员会拉到比单独的更大的优势。如果委员会有2个模型重新训练。管箱。在最好的情况下,他们不会输,在这种情况下,这一点也不坏!!!!。

 

尤里-阿索连科

弗拉基米尔-佩雷文科

对于初学者来说, 这是一个很难学习的领域,所以Rstudio团队为R开发了keras

祝好运

关于Keras,我不明白。就在昨天,我读到它是TensorFlow的一个高级插件,甚至还看到了它的一个实例。没有R,只有Python。


该男子甚至给出了一个不迷路的链接,小心翼翼地避开R,甚至在这样的条件下设法。

 
尤里-阿索连科
我不明白Keras的情况。就在昨天,我读到它是TensorFlow的一个高级插件,甚至看到了一个例子。没有R,只有Python。

有什么可理解的。Python中的所有东西都已经在R中了。

祝好运

 
桑桑尼茨-弗门科

这名男子甚至给出了一个不要迷路的链接,小心翼翼地避开R,甚至在那些条件下也能成功。

没有看到链接。

以下是Keras的链接 -https://habrahabr.ru/company/ods/blog/325432/

我不排除Keras的接口是为R制作的。但发明Keras的并不是R。也就是说,不是Rstudio团队为R开发了keras 而是开发了 Keras的接口 而对于用户来说,这是两个很大的区别--包装或界面。

这就是我想澄清的问题。

Библиотеки для глубокого обучения: Keras
Библиотеки для глубокого обучения: Keras
  • habrahabr.ru
Привет, Хабр! Мы уже говорили про Theano и Tensorflow (а также много про что еще), а сегодня сегодня пришло время поговорить про Keras. Изначально Keras вырос как удобная надстройка над Theano. Отсюда и его греческое имя — κέρας, что значит "рог" по-гречески, что, в свою очередь, является отсылкой к Одиссее Гомера. Хотя, с тех пор утекло много...
 
尤里-阿索连科

没有看到链接。

以下是Keras的链接 -https://habrahabr.ru/company/ods/blog/325432/


这是一个指向Hubr的链接。图书馆的链接是https://keras.rstudio.com/index.html

阅读原始资料。

祝好运

R Interface to 'Keras' • keras
R Interface to 'Keras' • keras
  • keras.rstudio.com
Keras is a high-level neural networks API developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research. Keras has the following key features: Allows the same code to run on CPU or on GPU, seamlessly. User-friendly API which makes it easy to quickly...
[删除]  
谷歌他们都:)
Mihail Marchukajtes:

早在2007年,他们就建立了3-5个战略的委员会,工作质量明显提高。但委员会的问题是,三个人中至少要有两个人是足够的,那么他们会把委员会拉到比个人更有利的位置。如果委员会有2个模型重新训练。管箱。充其量他们不会合并,在这一点上甚至不是一件坏事!!!!。


就我而言,合奏和委员会与串联有点不同

顺便说一下,MLP的NS的合奏非常好......但很慢

关于委员会是有趣但有争议的,同样的三元分类器Reshetov

没有搞好串联