交易中的机器学习:理论、模型、实践和算法交易 - 页 2743 1...273627372738273927402741274227432744274527462747274827492750...3399 新评论 mytarmailS 2022.09.16 09:50 #27421 Maxim Dmitrievsky #:是基于相关性的,因为 "关系 "和 "关系 "是相关性的定义。 关系和关系是相关性的定义????。真的吗?你脖子上的链子是相连的,它们之间有关系。这就是相关性?我和一个女孩有关系,我们之间的关系就是相关性?相关性首先是一种度量!愚蠢。 JeeyCi 2022.09.16 09:58 #27422 马克西姆-德米特里耶夫斯基 。 这就是我要说的:,要进行分类,就不应该只按上/下层进行分类,而至少要先进行聚类分析,以确定正式划分多少个类别(如何称呼这些类别是主观喜好的问题)......,然后才能确定判别函数,在此基础上将样本分配到这个或那个类别....。这样,分类的准确率才会正常--当我们知道我们划分的类别确实存在时...... PCA 只是选择正交特征的因子分析的一种变体,但它可以解释所有的方差,而无需选择主因子,,因为主成分只是原始数据转换成的特征向量系数("载荷"),与原始数据相乘后得出 pc_scores......(类似的东西--我很久以前就记得了--主成分只是原始数据转换成的特征向量系数("载荷"),与原始数据相乘后得出 pc_scores......(类似的东西--我很久以前就记得了--主成分只是原始数据转换成的特征向量系数("载荷"),与原始数据相乘后得出 pc_scores......)。(类似的东西--很久没有记住算法了)- 但最终 PCA 可以解释所有的方差,而没有 fs...相比之下,主因子分析使用的是 "只有变量的变异,其他变量也有"...(我并不坚持认为这就是最好的主因子分析--但细微差别无处不在) ,一般来说,FS 没有人能做得正确,并试图将责任归咎于库... PCA结合+/-3sq.cv.off--可以帮助去除异常值,但这只适用于正态分布,你仍然必须证明你的基因群体服从正态分布规律!- 统计上也是如此...否则,PCA 将显示 "Repin 上有油"(反之亦然)......== 我看到了一种在统计学上足以建立近似于此模型的方法....=== 和库已经是第 10 件事(即使版主在不了解我们在正常的数据科学中谈论什么的情况下骂人--失败者总是梦想着宴会并指责整个世界)--而那些真正想了解的人早就意识到,重要的不是程序员的语言,而是某些实体背后的算法,即使是在外星库中实现--因果关系 的本质并不会改变这一点(库的名称)。p.s...当版主在宴会上时(,其他人正在工作--您应该以他们为榜样--不要散布错误信息。 mytarmailS 2022.09.16 10:12 #27423 JeeyCi #:PCA 只是因子分析的一种变体,用于选择正交特征,但它可以解释所有方差,而无需选择主因子、 有一种 PCA 考虑到了目标,它可以分离出描述目标特征的成分,但可悲的是,目标是一个主观变量,一旦训练过度,它就会 "浮动 "起来....。它与普通的教师培训有何不同? Maxim Dmitrievsky 2022.09.16 10:49 #27424 JeeyCi #: 马克西姆-德米特里耶夫斯基 。 这就是我要说的: 要进行分类,就不能只按上/下方向进行,而至少要先进行聚类分析,以确定正式划分多少个类(如何称呼这些类是主观喜好的问题)......,然后才能确定判别函数,在此基础上将样本分配到这个或那个类.... PCA 只是选择正交特征的因子分析的一种变体,但它可以解释全部方差,而无需选择主因子, 因为主成分只是原始数据转换成的特征向量系数("载荷"),这些系数乘以原始数据就得到了 pc_scores(类似的东西--我很久以前就想起来了--是很久以前的事了)......(类似的东西 - 很久以前就不记得算法了)- 但最终 PCA 可以解释所有的方差,而不需要 fs......相比之下,主因子分析使用的是 "只有变量的变异,其他变量也有"...(我并不坚持认为这就是最好的主因子分析--但细微差别无处不在) ,一般来说,FS 没有人能做得正确,并试图将责任归咎于库... PCA结合+/-3sq.cv.off--可以帮助去除异常值,但这只适用于正态分布,你仍然必须证明你的基因群体服从正态分布规律!- 统计上也是如此...否则 PCA 将显示 "Repin 上有油"(反之亦然)......== 我认为建立模型的适当统计方法如下...=== 和库已经是第 10 件事情了(即使版主在不了解我们在正常的数据科学中谈论什么的情况下骂人--失败者总是梦想着宴会并指责整个世界)--而那些真正想了解的人早就意识到,重要的不是程序员的语言,而是某些实体背后的算法,即使是在外星库中实现的算法--因果关系 的本质并不会改变这一点(库的名称)。p.s...当版主在宴会上时(,其他人正在工作--您应该以他们为榜样--不要散布错误信息。 版主不明白我们在说什么,所以任何适当的信息都会被解释为挑衅 😀。而事实上,🤡 坐着挑衅,从一个话题跳到另一个话题,这没什么,但大多数人都明白他们写了什么....。由于还没有人找到一种普遍适用的方法,所以从内容上看,一切都显得同样空洞无物,但从意义上看,小丑们的一切在逻辑上都是自相矛盾的,也就是说,事先都是假的。 mytarmailS 2022.09.16 10:57 #27425 Maxim Dmitrievsky #:已经有人说过你是个 Ptushnik,所以你才这么火 。 谁说的?一个连三个词都不知道怎么表达的白痴说的))啊哈哈,很严重....。 Maxim Dmitrievsky 2022.09.16 11:01 #27426 mytarmailS #:谁说的?一个连三个词都连不起来、逻辑混乱的白痴说的))啊哈哈,太严肃了....你不懂说话的转折,你不懂什么时候是为了简洁而写,你不懂定义,这些都不算什么。你这是在离题发挥。这就是大学生的特点。 没有人指责你,人与人是不同的。只要不去你是橡树的地方,就别掺和进来:D mytarmailS 2022.09.16 11:11 #27427 Maxim Dmitrievsky #:你不懂语言模式 天才))我们写任何垃圾,如果有想法的人戳你的鼻子,你就告诉他们--你 不懂说话,普图什尼克。 你对 "普图什尼克 "人有什么意见,他们不是人吗,还是你的前男友就来自那里? Forester 2022.09.16 11:12 #27428 JeeyCi #: 上/下目录, ...... 用俄语写,根本看不懂,用样本写更是可笑。因为这个原因,你的大部分文章我通常都不看。 Valeriy Yastremskiy 2022.09.16 11:12 #27429 Maxim Dmitrievsky #: 总结一下桑尼奇的理论(因为他自己也没有把理论正规化并举例说明): *他的特征选择方法基于相关性,因为 "关系 "和 "关系 "是相关性的定义。 经过桑尼奇的解释,我终于有点不明白重要预测因子是什么意思了。根据他的解释,它们经常出现,其大小与结果相关。但这些显然是整个训练期间系列的一般迹象。我似乎无法与系列模型中的内容相匹配。事实证明,这些预测因子总是有效的,如果相当简化的话,或者说是最经常有效的。一般来说,使用最常用的设置显然会比使用仅在特定分段上有效的设置得到更积极的结果....。 我不知道最终搜索的是什么以及为什么。 Maxim Dmitrievsky 2022.09.16 11:13 #27430 mytarmailS #:天才))我们写任何垃圾,如果有人认为戳你的鼻子,你就告诉他们--你 不懂语言模式,ptuschestvo。你为什么要反对 "普图什尼克人"? 他们不是人吗? 还是你的前夫就来自那里? 我告诉过你别插手没兴趣别评论我的文章,去做你的普图什卡人的事吧。 1...273627372738273927402741274227432744274527462747274827492750...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
马克西姆-德米特里耶夫斯基 。
这就是我要说的:
,要进行分类,就不应该只按上/下层进行分类,而至少要先进行聚类分析,以确定正式划分多少个类别(如何称呼这些类别是主观喜好的问题)......
,然后才能确定判别函数,在此基础上将样本分配到这个或那个类别....。这样,分类的准确率才会正常--当我们知道我们划分的类别确实存在时......
PCA 只是选择正交特征的因子分析的一种变体,但它可以解释所有的方差,而无需选择主因子,
,因为主成分只是原始数据转换成的特征向量系数("载荷"),与原始数据相乘后得出 pc_scores......(类似的东西--我很久以前就记得了--主成分只是原始数据转换成的特征向量系数("载荷"),与原始数据相乘后得出 pc_scores......(类似的东西--我很久以前就记得了--主成分只是原始数据转换成的特征向量系数("载荷"),与原始数据相乘后得出 pc_scores......)。(类似的东西--很久没有记住算法了)
- 但最终 PCA 可以解释所有的方差,而没有 fs...相比之下,主因子分析使用的是 "只有变量的变异,其他变量也有"...(我并不坚持认为这就是最好的主因子分析--但细微差别无处不在)
,一般来说,FS 没有人能做得正确,并试图将责任归咎于库...
PCA结合+/-3sq.cv.off--可以帮助去除异常值,但这只适用于正态分布,你仍然必须证明你的基因群体服从正态分布规律!- 统计上也是如此...否则,PCA 将显示 "Repin 上有油"(反之亦然)......
== 我看到了一种在统计学上足以建立近似于此模型的方法....
===
和库已经是第 10 件事(即使版主在不了解我们在正常的数据科学中谈论什么的情况下骂人--失败者总是梦想着宴会并指责整个世界)--而那些真正想了解的人早就意识到,重要的不是程序员的语言,而是某些实体背后的算法,即使是在外星库中实现--因果关系 的本质并不会改变这一点(库的名称)。
p.s...
当版主在宴会上时(,其他人正在工作--您应该以他们为榜样--不要散布错误信息。
PCA 只是因子分析的一种变体,用于选择正交特征,但它可以解释所有方差,而无需选择主因子、
有一种 PCA 考虑到了目标,它可以分离出描述目标特征的成分,但可悲的是,目标是一个主观变量,一旦训练过度,它就会 "浮动 "起来....。它与普通的教师培训有何不同?
马克西姆-德米特里耶夫斯基 。
这就是我要说的:
要进行分类,就不能只按上/下方向进行,而至少要先进行聚类分析,以确定正式划分多少个类(如何称呼这些类是主观喜好的问题)......
,然后才能确定判别函数,在此基础上将样本分配到这个或那个类....
PCA 只是选择正交特征的因子分析的一种变体,但它可以解释全部方差,而无需选择主因子,
因为主成分只是原始数据转换成的特征向量系数("载荷"),这些系数乘以原始数据就得到了 pc_scores(类似的东西--我很久以前就想起来了--是很久以前的事了)......(类似的东西 - 很久以前就不记得算法了)
- 但最终 PCA 可以解释所有的方差,而不需要 fs......相比之下,主因子分析使用的是 "只有变量的变异,其他变量也有"...(我并不坚持认为这就是最好的主因子分析--但细微差别无处不在)
,一般来说,FS 没有人能做得正确,并试图将责任归咎于库...
PCA结合+/-3sq.cv.off--可以帮助去除异常值,但这只适用于正态分布,你仍然必须证明你的基因群体服从正态分布规律!- 统计上也是如此...否则 PCA 将显示 "Repin 上有油"(反之亦然)......
== 我认为建立模型的适当统计方法如下...
===
和库已经是第 10 件事情了(即使版主在不了解我们在正常的数据科学中谈论什么的情况下骂人--失败者总是梦想着宴会并指责整个世界)--而那些真正想了解的人早就意识到,重要的不是程序员的语言,而是某些实体背后的算法,即使是在外星库中实现的算法--因果关系 的本质并不会改变这一点(库的名称)。
p.s...
当版主在宴会上时(,其他人正在工作--您应该以他们为榜样--不要散布错误信息。
。
谁说的?一个连三个词都不知道怎么表达的白痴说的))啊哈哈,很严重....。
谁说的?一个连三个词都连不起来、逻辑混乱的白痴说的))啊哈哈,太严肃了....
你不懂说话的转折,你不懂什么时候是为了简洁而写,你不懂定义,这些都不算什么。
你这是在离题发挥。这就是大学生的特点。
没有人指责你,人与人是不同的。只要不去你是橡树的地方,就别掺和进来:D你不懂语言模式
天才))我们写任何垃圾,如果有想法的人戳你的鼻子,你就告诉他们--你 不懂说话,普图什尼克。
你对 "普图什尼克 "人有什么意见,他们不是人吗,还是你的前男友就来自那里?
...
用俄语写,根本看不懂,用样本写更是可笑。因为这个原因,你的大部分文章我通常都不看。
总结一下桑尼奇的理论(因为他自己也没有把理论正规化并举例说明):
经过桑尼奇的解释,我终于有点不明白重要预测因子是什么意思了。根据他的解释,它们经常出现,其大小与结果相关。但这些显然是整个训练期间系列的一般迹象。我似乎无法与系列模型中的内容相匹配。事实证明,这些预测因子总是有效的,如果相当简化的话,或者说是最经常有效的。一般来说,使用最常用的设置显然会比使用仅在特定分段上有效的设置得到更积极的结果....。
我不知道最终搜索的是什么以及为什么。
天才))我们写任何垃圾,如果有人认为戳你的鼻子,你就告诉他们--你 不懂语言模式,ptuschestvo。
你为什么要反对 "普图什尼克人"? 他们不是人吗? 还是你的前夫就来自那里?