试穿和实际模式之间的界限在哪里? - 页 21

 
Reshetov:

对于特别有天赋的人。


1)在Russkomazykenetlova osobogodnymi。

好吧,你可以一次,但不能在五页中连续五次。

..............

2)分裂时期的危害.....

и

OOS测试 的危害....

同意这些是不同的事情。

不要虚报可靠信息。已经没有多少了....。)

 
Reshetov:

不,不是的,如果对OOS的测试是积极的。

如果在OOS上有一个负面的结果,这并不一定意味着与Sample的契合--市场可以改变。为了确定是否合适,有必要在采样前和采样后对OOS进行测试。如果这两个转发的结果都是负的,那么我们已经处理了裸露的配件。

成功的前瞻性测试并不保证TS在未来的盈利能力。它们的目的是为了确定调整。

为了确保TC在优化期没有被钝化调整,我们进行了OOS测试。


一切都是正确的。但是。OOS必须包含与优化期不同的信息,我们才能确定TS是能够泛化的(发现一些规律性的东西,在不同的数据上结果会相似,但包含这种规律性)。否则,对OOS的测试会有与样本相同的结果,但它不会确认TS学会了一种模式,在未来,TS将不能以同样的结果工作。


现在,请注意!问题:你是否检查OOS是否包含与S不同的数据?如果是这样,怎么做?

 


如果有人发现图表本身有不准确之处,请告诉我......

尺寸是真实的,但它仍然是一个模糊的图像。在单独的窗口中,这很清楚。

 
费加0


你说你在为训练准备数据。你能不能说得更具体一点,你使用这种技术有多久了?你的话中有些东西很熟悉,我记得我建议,就像在关于上下文的分支中一样,用初步要求的参数准备合成数据进行优化,这样你就可以改变数据参数,看到TS的反应。我认为在德像你只是同意我的观点,但建议一个与我稍有不同的选择--从真实的历史片段中准备数据,是这样吗?

 
lasso:

1)在Russkomazykenetlova osogodarstvennyy.go....)

对于特别有天赋的人。

见。关于Académique的字典和百科全书:特殊 天赋的人

P.S.对于特别有天赋的俄语鉴赏家来说:在俄语中,有一些空格可以将一些单词与其他单词分开。

 

威,威,威...。

你是多么复杂......:))

 

拉索,你最好的选择是阅读一些不太复杂的神经网格。我想这就是所有这些术语的由来。也许我的说法不准确,请原谅我,我已经很久没有读过这本书了。

1.样本数据: 训练图。样本图,我们直接从中提取数据并训练网络。

2.核查数据: 核查部分。我们不在这部分进行训练,而是用它来估计误差,并控制何时应该停止训练。有一条众所周知的验证误差曲线,它取决于运行的次数。这是一条有最小值的曲线。如果我们训练的时间太长,也就是说,如果我们没有及时停下来,训练部分的误差仍然会减少,但现在验证部分的误差会增加。这就是拟合:我们在训练部分对数据进行了相当好的近似,但做得过头了,因为验证误差开始增大。第二个错误是对神经网络的训练质量和泛化能力的评价。

3.测试数据。 这是一个真正的OOS,即样本外的。

第二幅图,即评估误差的验证图,虽然我们不在上面进行训练,但也没有OOS。尽管如此,这一部分的数据被用来训练第一部分的数据。为了正确和完全独立地验证训练(更确切地说,是归纳)的质量,我们需要采取我们还没有看到或用于训练的数据。

在测试器中,我们没有神经网络。在样本数据部分直接估计出一个误差。所以这里没有办法直接转移神经方法。虽然,也许xeon 在这里也发明了一些东西,它的TestCommander...。

 
Reshetov:

对于特别有天赋的人。

见。学院里的字典和百科全书:特殊 的天赋

P.S. 对于特别有天赋的俄语专家来说:俄语中存在着差距

请你对 "天赋 "一词给出你自己的解释,这样就不会出现对该词的不正当解释。
 
joo:
费加0


你说你在为训练准备数据。你能不能说得更具体一点,你使用这种技术有多久了?你的话中有些东西很熟悉,我记得我建议,就像在关于上下文的分支中一样,用初步要求的参数准备合成数据进行优化,这样你就可以改变数据参数,看到TS的反应。我认为在德像你只是同意我的观点,但建议一个与我稍有不同的选择--从真实的历史片段中准备数据,是这样吗?


为某些规则的训练准备数据,只是在系统中引入一个额外的过滤器。
 
Reshetov:

对于那些特别有天赋的人来说:非平稳性是指没有统计上的规律性,如预期报酬和方差。

把布林包络线放在图表上,你会看到非平稳性的 "模式 "是什么,因为指标的中心是期望值,而从中心到包络线的距离是分散性。

预期和方差只有在无限大的样本中才有意义。