交易中的机器学习:理论、模型、实践和算法交易 - 页 3083

 
Maxim Dmitrievsky #:

要将干扰参数转化为函数,可以使用 RF 或任何基本算法的输出值,如文章所述。对于完全不知情的人:用函数值替换所选参数的值。然后,线性回归(或任何其他算法)将成为评估三元效应的元分析器。这一切的原因和原理--学习数学。

要理解这一点,只要开始用脑子思考就足够了。但桑尼奇又会开始胡说八道,因为他只想不假思索地说些什么。桑尼奇,你的理解力太差了,竟然引用射频参数作为某种证明,这绝对令人难以置信。我给你写了 3 次信--忘掉射频吧。最后再说一次:先研究课题,然后再咆哮。否则,那些不学无术的人也会盲目地相信你。

不要以万事通的姿态回复我的帖子(这很讨厌),因为你什么都不知道,这看起来就像一个普特斯尼克人的呓语。

所有资料来源的参考文献都在文章中给出了。你们需要像瞎眼的小猫一样一个字一个字地被戳吗?还是你们毕竟是成年人?

我是在讨论这篇文章,而不是你口袋里的数字,我相信,根据你提到的文献清单,你口袋里有很多数字。

如果你有如此强烈的愿望继续讨论你发表的那篇文章,那么我愿意继续讨论,但只讨论那篇文章,只讨论我的论点,而且讨论的形式不包括你的粗鲁无礼。


这篇文章讨论的是射频。我没有看到任何其他可以计算拟合误差以及拟合本身的函数。因此,请你善意地引用文章内容,并提供反驳这一观点的具体引文。

 
Lilita Bogachkova #:

我有一个问题想请教机器学习专家。如果我用一个角色的数据进行训练,用另一个角色的数据进行验证,再用第三个角色的数据进行测试,这种做法好吗?

另外,我从测试数据中得到了以下结果:绿色单元格非常好,黄色单元格好,红色单元格一般。


还有一个关于修改数据以训练模型的问题。我注意到模型很难找到极值,在我的例子中,极值高于 60,低于 40。
因此,我在训练数据中找到了高于 60 和低于 40 的值,并在输入模型之前将其重新添加到训练数据中,所以问题是:是否可以通过增加包含极值信息的训练数据来提高模型的准确性?

如果你无法分辨仪器之间的差异,那么你可以。或者通过减去差值强行使它们达到这种状态。

关于第二个问题,不,你可能做不到。在其他地方会错得更多,因为它会把梯度拉向自己。但这都是个别现象。
 
Maxim Dmitrievsky #:
如果你分辨不出乐器之间的差别,你可以。或者通过减去差值迫使它们达到这种状态。

关于第二个问题,不,你可能做不到。在其他地方会错得更多,因为它会把梯度拉向自己

目前看来确实如此


不过,在我放弃这个想法之前,我想看看通过将不同的工具(符号)混合在一起,然后创建只包含极端值的数据来训练模型会得到什么结果。

 
Lilita Bogachkova #:

现在看来,情况确实 如此。


不过,在我放弃这个想法之前,我想看看通过将不同的工具(字符)混合在一起,然后创建只包含极端值的数据来训练模型会得到什么结果。

试试看吧。我看不出一个和多个之间有什么区别。
 
Maxim Dmitrievsky #:
如果你分辨不出乐器之间的差别,你可以。或者通过减去差值迫使它们达到这种状态。

如今,使用不同的符号进行训练、验证和测试,可以提高预测的准确性。作为这种练习的一个优点,我可以提一下,数据的大小没有限制,您可以根据自己的需要提供尽可能多的数据用于验证或训练。

在使用第三个符号进行测试时,您可以立即看到模型是否能够找到通用模式,而不是陷入特定符号的狭隘市场事件中。

 
Lilita Bogachkova #:

如今,使用不同符号进行训练、验证和测试的做法可以提高预测的准确性。作为这种做法的优点,我可以说,数据的大小没有限制,您可以根据自己的需要提供尽可能多的数据用于验证或训练。

使用第三个符号进行测试时,您可以立即看到模型是否能够找到普遍模式,而不是受狭隘的市场事件驱动。

如果数据没有大的偏差。不同的符号有不同的符号离散度,模型可以在这些符号上漂移,也可以完全停留在一个位置上。如果符号至少不会因符号的不同而改变其属性,则是有可能的。
 
我想听听大家对通过移除连续重复多次的值来修复训练数据的意见,比如连续重复 4 次以上的值。
seq = remove_repeating_values(seq, 5)
据我所知,在市场持平的情况下,此类等值往往会达到几十个。在我看来,这会阻碍模型的训练。
 
Lilita Bogachkova #:
我想听听大家对修正训练数据的意见,即删除连续重复多次的值,例如连续重复 4 次以上的值。
据我所知,在市场持平的情况下,此类等值往往会达到几十个。在我看来,这会妨碍模型训练。
通常,模型会随机提取数值,而不是连续提取。混合样本是良好判断力的体现:)可以舍弃 lstm,混合样本。
 
Maxim Dmitrievsky #:
通常情况下,模型的数值是随机 的,而不是连续的。

是的、

X_train, X_val, y_train, y_val = train_test_split(inputs_unique, outputs_unique, test_size=test_size_value,
                                                    random_state=random_state_value)

但大量数值相同让我对数据的整体质量产生了怀疑。
示例:seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5,5][5] ....
我不认为给模型提供这样的训练数据有什么意义;

所以我仍然在筛选所有不唯一的数据。

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

我可能错了,但在我看来,给模型提供以下训练数据也是不对的:

[1,2,3,4,5] [5];

[1,2,3,4,5] [6];

[1,2,3,4,5] [7];

[1,2,3,4,5] [8];

...

 

大家好。我正在尝试训练智能交易系统(Expert Advisors),该系统选自本网站上关于神经网络的一系列文章。给我的印象是它们无法训练。我试着向文章作者提问,但遗憾的是,他并没有切实回答我的问题......(

因此,我想问论坛成员一个问题--请告诉我需要训练多少神经网络才能让它开始给出一些(不是随机的)结果?

我试过从第 27 条到最后一条的所有 EA,结果都一样--随机。我按照作者的指示,从 300 个历元训练到 1000 个历元。如果智能交易系统只是迭代,我从 100 000 次迭代到 20 000 000 次迭代,如此反复 2-3 次,结果仍然是随机的。

应该训练多少次?足够的训练样本(如果是预先创建的)的大小是多少?

PS:关于神经网络的简单信息在谷歌阅读,一般对神经网络都比较熟悉。所有人都写了大约 100-200 个历时,应该已经有结果了(图片、数字、分类)。