Автор : 2015 : Флах П.: ДМК Пресс : 978-5-97060-273-7 : Русский: PDF : Отсканированные страницы : 402: Перед вами один из самых интересных учебников по машинному обучению - разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения и обучения. Автор воздал должное невероятному...
另一本关于该主题的有用书籍
祝好运
到目前为止,无论是演示还是真实,都没有为任何人带来好处。
底线--这都是玩具、乐趣和游戏...。
到目前为止,无论是演示还是真实,都没有为任何人带来好处。
其结果是--都是玩具、娱乐和乐趣。
拿破仑的儿子在生日时得到了一个铝制拨浪鼓。铝对其他东西都没有好处)。
yoooooooooooo!
两种方式的东西都使用了森林。在训练中,所有的类都被猜中了,在测试数据中则要少一点,在测试数据中,有50%以上的数据落入了所寻求的类中,而负面的类数据也落入了那里(约为所寻求的50%的数量)。
好吧,充其量只有很少的例子,搜索类中的负面类也少一点。
那我怀疑数据是否可以完全分割,至少是以很小的幅度分割,对交易产生有意义的影响。
或者说不是吗?
树木实验的中间结果
这份报告是针对2017年的--输入是由TC条件产生的,没有应用过滤器,但有位置支持
都一样,但输入是由在2015年和2016年训练的树产生的
这是带滤波器的ATS信号的输入
这是由Tree用同样的过滤器输入的结果
是的,过滤器是为2016-2017年优化的,所以它几乎是一个prdrong,但为什么树不能把它们排起来是一个谜。另一方面,我们可以看到,在过滤器筛选出输入的地方,树进来了,反之亦然,这同样有趣。而有趣的是,这棵树在决定分支时并不考虑确切的财务结果,而对历史的优化则集中在财务指标上。
yoooooooooooo!
两种方式的东西都使用了森林。在训练中,所有的类都被猜中了,在测试数据中则要少一点,在测试数据中,有50%以上的数据落入了所寻求的类中,而负面的类数据也落入了那里(约为所寻求的50%的数量)。
好吧,充其量只有很少的例子,搜索类中的负面类也少一点。
那我怀疑数据是否可以完全分割,至少是以很小的幅度分割,对交易产生有意义的影响。
或者说不是吗?
如果森林里到处都是垃圾,那么它就是非洲的一个垃圾场。你已经提供了最具体的证据,说明你根本没有与目标变量相关的预测因素。
如果你用垃圾填满森林,森林就是一个垃圾场。你已经提供了最具体的证据,证明你根本没有与目标变量相关的预测因子。
是不是他们必须除以目标?:DDDDD
给我看一个测试和跟踪图,其中存在着这种关系
我不知道他为什么不给我看......就像最近fxsaber禁止我一样......至少他知道自己在说什么......他肯定没有写过通过森林和其他软件包搜索预测器,因为用这种方法无法在市场上找到比率
如果你用垃圾填满森林,森林就是一个垃圾场,而你已经提供了最具体的证据,证明你根本没有与目标变量相关的预测因子。
给你。很多例子显示,当train=>validation。你需要train=>validation=>test(测试数据,算法根本没有看到,只是通过训练好的模型预测,在train,validation上)
因此,那些显示训练结果,然后验证的例子说明不了什么。我有很多例子,验证能让你猜到95%的目标。
而且他们用交叉检查的方式对K-10进行检查。同样,我也得到了过度训练。
我有很多例子,我可以猜到95%的目标。
找到了,找到了我写的地方。
M. Gunter.股票投机者的公理。
辅助公理#5。谨防历史上的相似之处的陷阱。
辅助公理#6。谨防重复数字的错觉。
第7条辅助公理。谨防存在相关和因果关系的错觉。
嗯,与冈特不相上下?))))
找到了,找到了我写的地方。
hmmm,与冈特不相上下?))))
我知道这一点已经很久了。我想我是在'三年级'时经历的。不惊讶))))