交易中的机器学习:理论、模型、实践和算法交易 - 页 1194

 
然后学习算法被设计为按0.5分解对数损失--所以那里有一个主要的集群是有点合乎逻辑的。
 
阿列克谢-维亚兹米 金。
然后学习算法被锐化,将对数损失分解为0.5--因此,那里的集群是主要的,这有点合乎逻辑。

logloss几乎没有什么可看的,在阶级划分方面,它是一个不起眼的指标。

 
马克西姆-德米特里耶夫斯基

事件概率越高,信号就越准确,这甚至来自于定义:)2 驼峰不会出现在嘈杂的数据上,但模型至少应该在适当的程度上捕获极端值,否则它根本无法确定输入。

我认为这不是那么简单的,你必须考虑学习功能...因为概率一般是在其数值之后计算的(在模型算法中如此)。

到目前为止,事实告诉我,污损的模型只是不确定,而且我还没有遇到中心的故障......

马克西姆-德米特里耶夫斯基

看logloss几乎是没有用的,它是一个不重要的指标,在分班方面是不重要的。

有一个梯度下降的过程......
 
阿列克谢-维亚兹米 金。

我认为这不是那么明确的,你必须考虑学习功能...因为概率一般是在其数值之后计算的。

到目前为止,事实告诉我,污损的模型只是不确定,而且我还没有遇到中心的故障......

我不明白这个术语,学习函数是什么? 最后有一个softmax还是什么?

我不知道失败的原因,但不确定的模型不会对新数据起作用,而模糊的模型会,如果你设置概率阈值的话

 
Maxim Dmitrievsky:

我不明白这个术语,学习函数是什么?最后有一个softmax还是什么?

在这里,模型是通过logloss来评估的,所有的梯度提升 都是为了提高这个函数的性能。该模型本身产生的数值需要通过逻辑函数进行转换。这就是为什么我认为在这种有概率的方法中,一切都不是那么简单......

 
阿列克谢-维亚兹米 金。

在这里,模型是通过logloss来评估的,所有梯度提升的行动都是为了提高这个函数的性能。该模型本身产生的数值需要通过逻辑函数进行转换。这就是为什么我认为在这种有概率的方法中,一切并不那么简单......

有最小和最大的f-ion,它们肯定会在logit边际......如果它们不在那里,那么就是运行不足或其他原因(我每次运行不足时都会遇到,比如神经元或树很少),而且有很大的误分类和logloss。

 
马克西姆-德米特里耶夫斯基

有最小和最大的f-ion,它们总是在logit的边缘......如果它们不在那里,那就是欠拟合或什么的(我总是在欠拟合的时候出现,比如说很少的神经元或树),而且分类错误和logloss很大。

这是关于模型输出的那些系数https://en.wikipedia.org/wiki/Logit - 它不是一个线性分布。

在我看来,训练不足比过度训练要好,特别是如果你专注于第1类,并采取很大比例的正确分类的目标,击中分类,然后你可以通过限制其应用范围来组合模型。

Logit - Wikipedia
Logit - Wikipedia
  • en.wikipedia.org
In deep learning, the term logits layer is popularly used for the last neuron layer of neural network for classification task which produces raw prediction values as real numbers ranging from [3]. If p is a probability, then is the corresponding odds; the logit of the probability is the logarithm of the odds, i.e. logit ⁡ ( p ) = log ⁡...
 
阿列克谢-维亚兹米 金。

这是关于模型给出的那些系数https://en.wikipedia.org/wiki/Logit,它不是一个线性分布。

在我看来,训练不足比过度训练要好,特别是如果我们专注于第1类,并采取很大比例的正确分类的目标,属于分类,然后我们可以结合模型,限制其应用范围。

简而言之......我再说一遍:我们应该适当地进行教学,以避免拥挤(过拟合)和切断尾巴(欠拟合)。

在我看来,红色曲线看起来或多或少是正常的。

和欠拟合根本不算什么......在0.5的范围内

在模型运行时,可以通过贝叶斯,通过条件概率来拉出偏差。我还没有搞清楚到底是怎么回事,但凭直觉,有一种不可知的力量。

贝叶斯模型是能够学习的......如果你只是在模型上加一个贝叶斯的提示,让它不要经常重新训练呢......我还没有想明白。

 
马克西姆-德米特里耶夫斯基

我再说一遍:你必须正常地教它,这样就不会有碰撞(过量)和剪尾(不足)。

在我看来,红色曲线看起来比较正常。

和欠拟合根本不算什么......在0.5的范围内

在模型运行时,可以通过贝叶斯,通过条件概率来拉出偏差。我还没有搞清楚到底是怎么回事,但凭直觉,有一种不可知的力量。

贝叶斯模型能够重新训练......如果你只是在模型上加一个贝叶斯的提示,这样你就不必经常重新训练了......我还没有想到这一点。

是的,我也比较喜欢红色的--比如正态分布什么的,但到目前为止,在512个模型上,这种分布在眼睛上输了......很快就会有许多100000数量级的模型--我看看它们会显示什么......理论和实践有时并不一致--你需要适应,否则你可以像这样把你的牙齿放在架子上......

Catbust只是贝叶斯的,支持预学习,但我不知道--无休止地添加树--看起来很适合...

 
马克西姆-德米特里耶夫斯基

增加树木有点奇怪,没有重新组织整个结构......或者也许可以,很难说......对于一些小的角度,似乎可以,只是转移mb的中心。

而你还能怎么开窍呢--在提升中,据我所知,这是唯一的选择。当然,你可以扔掉模型的最后三分之一--三分之一的树--看看新的数据输入后会出现什么。但是,我正在考虑将不重要的 "概率 "的树叶归于无效--可以说是从噪声中清理出来的。一般来说,我认为从模型中收集集合的自动化,找到模型预测能力的良好区间--对其进行修剪分类(例如从0.7到0.8),并在其他模型之间的组合中加入空白。