交易中的机器学习:理论、模型、实践和算法交易 - 页 2962

 
Maxim Dmitrievsky #:
它不会对全球产生任何影响。

最主要的是要相信它,并经常重复它,反之亦然。

 
mytarmailS #:

最主要的是要相信它,并经常重复它,反之亦然。

我知道,当你做了一件事,却从一开始就被告知毫无意义时,你会很沮丧:)
那就至少展示一些剪辑,看看发生了什么
 
Maxim Dmitrievsky #:
我知道,当你做了一件事,却被告知这件事从一开始就毫无意义时,你会很沮丧。)
那至少给我看看 FFFtit 上的剪辑吧。

我吹嘘过削减吗?

我是说通过 FF 进行训练没有限制,但通过 targeting.... 进行训练有限制。

 
mytarmailS #:

我吹嘘过削减吗?

我是说 FF 的训练没有限制,但瞄准训练有限制。

我只是想实用一点,比如制作一个圣杯。
 
mytarmailS #:

我吹嘘过削减吗?

我的意思是,通过 FF 进行训练没有限制,但进行针对性训练却有限制。

是你开始和我争论,福缅科发现了这一点)。

你改变主意了吗?

 
Maxim Dmitrievsky #:
我只是想朝实用的方向发展,例如制作圣杯。

你只需要从另一个角度来理解 FF 的概念,误差最小化也是 FF。

事实上,FF 的选择并不亚于训练数据的选择。FF 应该考虑到模型应该做什么,不应该做什么,即最大限度地增加必要的 TC 操作,最小化不必要的 TC 操作。

 
Andrey Dik #:

你是第一个与我争论的人,福缅科也注意到了这一点......)

你改变主意了?

所以我是在和你争论 FF 不比靶子好?

这话从何说起?

我闻到了胡说八道的味道。

 
mytarmailS #:

所以我是在和你争论,FF 不比目标更好?

你说到哪里了?

我闻到了胡说八道的味道。

我最初说过,所有的学习都是为了最大限度地提高 FF。

你和福缅科认为,这种方法会导致过度训练--同时,我又说,如果出现过度训练,FF 的设计就不恰当。

我不知道你在想什么)。

我看你已经戒掉了 "戳 "陌生人的习惯,这已经很好了。

 
Andrey Dik #:

我原来说过,任何学习都是最大限度地提高 FF。

你和福缅科认为,这种方法会导致过度训练--同时,我又说,如果出现过度训练,FF 的设计就不恰当。

我不知道你在想什么。)

我看您已经戒掉了 "戳 "陌生人的习惯,这已经很好了。

我相信,那时很久以前,谈话的内容会有些不同,而现在总的来说是大不相同的,也是不同的 ....


是的,除夕过后,我决定称呼大家为 "您"。

 
Andrey Dik #:

您只需从另一个角度来理解 FF 的概念。

事实上,FF 的选择并不亚于训练数据的选择。FF 应该考虑到模型应该做什么和不应该做什么,即最大化必要的 TC 操作和最小化不必要的 TC 操作。

在我看来,唯一的选择就是在测试数据之外对其进行优化,然后在测试数据上对模型进行训练。从从不同历史时期提取共同点的角度来看,这仍有一定意义