MLflow is a platform to streamline machine learning development, including tracking experiments, packaging code into reproducible runs, and sharing and deploying models. MLflow offers a set of lightweight APIs in that can used with any existing machine learning application or library (TensorFlow, PyTorch, XGBoost, etc), wherever you currently...
Traditional reinforcement learning algorithms train an agent to solve a single task, expecting it to generalize well to unseen samples from a similar data distribution. Meta-learning trains a meta-learner on the distribution of similar tasks, in the hopes of generalization to a novel but related tasks by learning a high-level strategy that...
AMkA Скользящая средняя по Кауффману с возможностью читать через iCustom, изменять цену, к которой применяется и способ расстановки точек: на базе пипсового фильтра или с расчётом стандартного отклонения. Сглаживание ряда Close с помощью преобразований Фурье Индикатор выделяет наиболее значимые гармоники движения, отбрасывая...
幸福不需要任何理由
这是正确的,你需要抗抑郁药来获得幸福,但好奇心只能通过研究来满足。我不知道是我的数据还是我的优化器在起作用。我认为是50/50。匹配良好的数据与完全可以容忍的优化器。你可以在两个AI之间做一个比较分析,毫不含糊地计算出谁和谁的工作。
对优化器进行测试。
1.根据我的数据,你的NS在OOS上得到了一个更好的结果。赞成你的优化器。
2.根据我的数据,你的NS在OOS上得到了同样的结果。不确定。
3 在我的数据上,你的NS在反馈环路上得到的结果更差。赞成Reshetov的优化器。
4.雷舍托夫在你关于OOS的数据上得到了更好的结果。赞成雷舍托夫。
5.雷舍托夫在你的数据上得到了同样的结果,即OOS。未决定。
6.雷舍托夫在你关于OOS的数据上得到了更糟糕的结果。赞成你的优化器。
数据测试。
我通过你的基本策略保存我的数据,你通过我的基本策略保存你的数据,这让你有机会不暴露输入的逻辑,并再次优化。
1.如果我在你的数据上得到的结果比我的好。赞成你的投入。
2.如果我得到同样的结果。一场平局。
3.如果我得到一个更坏的结果,有利于我的投入。
你这边也是这样做的。通过这种方式,你至少可以就其他研究人员尝试一下,你的方法在原则上有多好。
这个问题并不酸,有很多需要协商的地方,等等,但如果进行这样的比较,你可以得到一个你的TS与我的TS相比的力量的比较估计。再说一遍,我并不是说我一直都这么正确。不可能。天网2.0是很棘手的,需要密切关注。我明白,用完全不同的方法进行比较将是一个巨大的挑战,但我愿意,这很无聊 :-(
这是正确的,你需要抗抑郁药来获得幸福,但好奇心只能通过研究来满足。我不知道是我的数据还是我的优化器在起作用。我认为是50/50。匹配良好的数据与完全可以容忍的优化器。你可以在两个AI之间做一个比较分析,毫不含糊地计算出谁和谁的工作。
对优化器进行测试。
1.根据我的数据,你的NS在OOS上得到了一个更好的结果。赞成你的优化器。
2.根据我的数据,你的NS在OOS上得到了同样的结果。不确定。
3 在我的数据上,你的NS在反馈环路上得到的结果更差。赞成Reshetov优化器。
你的NS是什么? 就拿你想看的东西来说吧:)乱用别人的数据集不是一个好主意。
最接近核化 SVM预测器,或者说,它是同一个东西。在这里你可以尝试一下。
要阅读
https://medium.com/towards-artificial-intelligence/a-simple-neural-attentive-meta-learner-snail-1e6b1d487623
https://arxiv.org/pdf/1707.03141.pdf
注意力网络和变形金刚是最近的潮流,他们说比RNN更好
哦,女士们,先生们,哦......。科学的花岗岩是沉重的,它是无法承受的。唉,我读了《新神经》--MetaTrader 5平台的开源神经网络引擎项目,我读了几个月,有100多页,是在晚上下班后读的,我不可能一辈子跟着这个>1500页的分支,我没有运气,我试图有选择地读,我没有看到任何有用的东西,虽然我猜,也许有人在用华丽的或隐喻的语言表达自己,我不得不在字里行间阅读。
女士们先生们,该怎么做?我们做了什么?
所以,计划是这样的,我对C++有一点了解,对mql了解不多,但我真的想做一些紧急的事情。 我还没有一个获得超级利润的目标,但我需要每月稳定的5-10%作为开始。我想我可能会从线性回归和通过以前的几个增量预测下一个增量开始,并在交易中开始。我需要采取哪些步骤来做到这一点?
例如,我们取一个长度为10的增量(x(t)-x(t-1)),第11个(x(t+1))将是我们要寻找的变量。 然后我们进行线性回归,得到一个预测,如果预测值大于零,我们就做多,如果小于零,就做空。这是IR在交易中的最直接应用。
你觉得这个计划如何?
更多细节:我们采取一系列增量(x(t)-x(t-1))的长度,例如10,11-th(x(t+1))将是期望的变量,然后我们运行线性回归,获得预测,如果预测值大于零,我们开出多头,如果小于零,我们开出空头。这是MO在交易中的最直接应用。
这是MO在算法交易中最直接的应用--ReshetovMLP和随机森林 预测趋势,而你却在谈论计量经济学的古板。
我不知道我是否会让你不高兴,但我还是要写,只是考虑每月的利润%,没有规定的最大缩减量,是一种无处不在的方式。
我不知道你是否会感到失望,但我还是要说,每月的利润百分比没有约定的最大缩减量,是一种不可能的方式。
我不知道你是否不高兴,但我会告诉你的)。
我不知道我是否会让你不高兴,但我要写的是,只看每个月的利润%而没有约定的最大缩减量是一条不归路。
人们在最大限度的缩减的情况下,一个月获得100%的利润;)
缩水至少是利润的两倍,尽管最好是完全没有缩水。
在算法交易中直接使用MO的是ReshetovMLP和随机森林预测趋势,而你在谈论计量经济学的古板
这些是先进的方法,MLP和RandomForest,但 "通往千里之路,始于足下" :)
先进的方法是混乱和曲折的,你没有瓶子或盐就无法弄清楚,而你需要了解原理、要领。
缩水至少是利润的一半,尽管最好是完全没有缩水。
这些是先进的方法,MLP和RandomForest,但 "通往千里之行,始于足下" :)
先进的方法是混乱的,迂回的,没有瓶子或盐,不可能了解那里,有必要了解原理,要领。
随机森林预测趋势--来自公鸡的skam链接。如果你不想因为刷新mql网站而被禁止几个小时,请不要去那里。请版主检查一下。
我想我不是被好人教导如何赚钱,而是在诈骗链接的帮助下拿走我辛苦赚来的钱!我想这是我的错。但这是没有办法的事,你不可能那么容易骗过我!"。