我不明白这个参数的含义,但它似乎是对过度拟合的某种对抗。因此,如果你增加它,训练的质量就会提高。但如果你把它增加到0.5以上,TensorFlow就会开始抱怨。 WARNING:tensorflow:Large dropout rate:Please ensure that this is intended.
我不明白这个参数的含义,但它似乎是对过度拟合的某种对抗。因此,如果你增加它,训练的质量就会提高。但如果你把它增加到0.5以上,TensorFlow就会开始抱怨。 WARNING:tensorflow:Large dropout rate:Please ensure that this is intended.
正如伟大的、无与伦比的亚历山大所写的那样(并继续在Smradlab上写),你需要与市场时间合作,我们都会很高兴。
这是一个不可改变的真理,必须像 "我们的父亲 "一样学习,并在坐在显示器前时重复。
理解是后来的事,首先是--不可动摇的信仰我记得那部关于Shurik的电影,他穿透了时间和空间)。
关于博弈论,但就像在手指上一样,适用于国防部。
我们通常是怎么做的?
这里有一个翻牌游戏,这里有一个NS,我们立即按规则限制NS,但不是按游戏规则,而是按我们的眼光,所以我们只从最小的牌开始玩,一次扔一张牌......我父亲教我的。所以我们开始训练,得到了一些训练有素的卡片游戏AI
什么是正确的,在组合学方面:游戏的一般规则和目标 - 胜利的数量,以及如何NS将有最小的卡发挥或翻转专门王牌...我们为什么要干涉?- 目标是最大的胜利
这就是我们被教导的原始方式......我忘了这个软件的名字,它打败了所有的雅达利游戏--用钝的蛮力,甚至钝的不知道游戏规则--通过分析屏幕上的像素,似乎--我在这里可能是错的,很久以前就读过了
因此,有两个或三个人将坐下来反对NS...并被剥得精光。NS不需要在尽可能多的比赛中取得最大胜利。这是关于投资的最大回报。NS已经把一些东西放在线上,在某些情况下可以全身心投入。但NS必须知道他的对手是谁,一直到线。 更多的是关于扑克的问题,而不是傻瓜。那里也有公平...谁利用了对手,谁就赢得了胜利。如果水平很高。
正如网上所说:你可以和菲尔-艾维对弈并击败他,但在距离上你会输。为什么?从你在过去的比赛中已经表现出来的情况来看,他知道如何发挥你 的能力。而你不知道如何与他打交道。他不是在玩牌,他是在玩你。
要想玩并赢,你必须知道你的风险。在哪里你可以冒一切风险,与谁对抗,何时对抗,以及在哪里你最好根本不坐在桌前!
当你在餐桌前坐下时,知道何时离开。在Dence中,有一个叫做Dropout的参数。
描述。
剔除包括在训练时间内每次更新时随机地将输入单元的分率设置为0,这有助于防止过度拟合。
我不明白这个参数的含义,但它似乎是对过度拟合的某种对抗。因此,如果你增加它,训练的质量就会提高。但如果你把它增加到0.5以上,TensorFlow就会开始抱怨。
WARNING:tensorflow:Large dropout rate:Please ensure that this is intended.
而在0.5之后,才是质量的开始。
有没有人明白这是为什么,是什么原因?
Dence有这样一个参数Dropout。
描述。
剔除包括在训练时间内每次更新时随机地将输入单元的分率设置为0,这有助于防止过度拟合。
我不明白这个参数的含义,但它似乎是对过度拟合的某种对抗。因此,如果你增加它,训练的质量就会提高。但如果你把它增加到0.5以上,TensorFlow就会开始抱怨。
WARNING:tensorflow:Large dropout rate:Please ensure that this is intended.
0.5之后才是质量的开始。
谁知道为什么,是什么呢?
我不是神经元方面的专家,但Dropout 是一种正则化,所以它是为了防止过度训练,当训练一个神经元时,一部分神经元被清零(杀死),这样做是为了让神经元能够更好地泛化,而不是将很多信息集中在一个神经元上。
我怀疑你能确认这个 "公理"--我知道它写在每个 "篱笆 "上
我已经很久没有读过篱笆了。MM是一种 "化妆品",它不能把真正的利润/风险比率从负数变成正数,但它可以在回测中创造这样一种假象。
当然,要拆解所有可能的方法,即毫米如何欺骗交易者是不现实的,在一些人已经做了,甚至在最酷的组织。但在马丁的例子上,这很容易显示出来,尽管可能不是对每个人都适用。
我们以2TS为例,有相同的随机进场系列,相同的TP/CL,但第一笔交易的手数是恒定的,而第二笔,如果前一笔交易是亏损的--我们将其翻倍。
这里是其中一个随机的例子。
可以看出,从第一个ASR<0,而第二个ASR>3,已经产生了剖析的错觉--一个奇迹!
我已经很久没有读过《篱笆》了。MM是一种 "化妆品",真正的利润/风险比率它不能带出黑色,但它可以在回测中创造这样的幻觉。
当然要拆解所有可能欺骗交易者的方法是不现实的,在一些组织中,即使是最酷的人也会这样做。 但在马丁的例子上,这很容易显示出来,尽管可能不是对每个人都适用。
我们以2TS为例,有相同的随机进场系列,相同的TP/CL,但第一笔交易的手数是恒定的,而第二笔,如果前一笔交易是亏损的--我们将其加倍。
这里是其中一个随机的例子。
我们可以看到,从第一个ASR<0,第二个ASR>3的奇迹中,已经产生了盈利的错觉!
一切都很清楚,它已经被尝试和测试了很多次
我已经很久没有读过《篱笆》了。MM是一种 "化妆品",真正的利润/风险比率它不能带出黑色,但它可以在回测中创造这样的幻觉。
当然要拆解所有可能欺骗交易者的方法是不现实的,在一些组织中,即使是最酷的人也会这样做。 但在马丁的例子上,这很容易显示出来,尽管可能不是对每个人都适用。
我们以2TS为例,有相同的随机进场系列,相同的TP/CL,但第一笔交易的手数是恒定的,而第二笔,如果前一笔交易是亏损的--我们将其加倍。
这里是其中一个随机的例子。
正如你所看到的,从第一个ASR<0,第二个ASR>3的奇迹,已经产生了一个熟练的错觉!
最后的奇迹
因此,雪崩
雪崩并不是由于便便而产生的,而是由于对无法进行技术分析的关注,即强调价格变动的随机性。我不是神经元方面的专家,但辍学 是一种正则化,所以当你训练一个神经元时,一些神经元会被清零,这样神经元可以更好地泛化,不会在一个神经元中集中太多的信息。
这一切都很清楚,已经做了,可以说不止一次了。
那么你为什么要争论呢?
这是美国广播公司,如果你试图在银行或对冲基金找到一份工作,并说你通过回溯测试器优化策略,即使有所有的胆量(毫米,执行等),这将是一个黑点,他们甚至不会带你到省DC。
那么你在争论什么呢?
这是字母表,如果你试图在银行或对冲基金找到一份工作,并说你通过backtester优化策略,即使有所有的胆量(毫米,执行等),这将是一个黑点,甚至在省级经纪公司也没有。
我不是在争论,我是煽动者
争论的意义何在?你不打算与我分享你诚实赚取的利润,我是不是答应补偿你的损失?
))))
至于银行,他们有其他目标,但我可以告诉你,银行也会亏损,而且是定期亏损;)
至于经纪公司,他们的目标是不同的。- 我想说,目标也是不同的。
SZS: 我记得和异教徒作战,现在是时候找出谁是正确的,谁将被烧死在火刑柱上 ))))
UPD: 是时候讲讲伟大的故事了....
我做了一个类似的图表,EA生成了TS,TS并不完美,但我认为,这个图表可以用于进一步的工作。