В данной статье мы опишем только один из аспектов машинного обучения - функции активации. В искусственных нейронных сетях функция активации нейрона вычисляет значение выходного сигнала на основе значений входного сигнала или набора входных сигналов. Мы покажем, что находится "под капотом".
This CRAN Task View contains a list of packages which offer facilities for solving optimization problems. Although every regression model in statistics solves an optimization problem, they are not part of this view. If you are looking for regression methods, the following views will also contain useful starting points: MachineLearning, Econometrics, Robust The focus of this task view is on Optimization Infrastructure Packages, General Purpose Continuous Solvers, Mathematical Programming Solvers, Specific Applications in Optimization, or Multi Objective Optimization.
朋友们,你们好
有一场战斗,欢迎你们,发出声音吧!.....!
这里从一开始就是一个失败的选择,因为你的袖子里有很多这样的选择,我们用老式的方法进行二进制分类:)
并不是每个函数都能毫无痛苦地输入神经网络。
这是个双输的局面,因为你的袖子里有很多,而我们是用老办法进行二进制分类的:)
并不是每个函数都能无障碍地输入神经网络。
事实上,一百万个参数是 "伟大的均衡器",搜索空间如此之大,我不知道哪种算法会胜出。黑盒子里装的是什么也不知道(或者说,它是已知的,但我们需要找到 "钥匙")。
这很有趣,就像破解保险箱一样!
事实上,一百万个参数是 "伟大的均衡器",搜索空间如此之大,以至于我不知道哪种算法会胜出。而黑盒子里会有什么,也是未知数(或者说,它是已知的,但需要找到 "钥匙")。
这很有趣,就像破解保险箱一样!
而且,并不是每个功能都能无障碍地输入到神经网络中。
三年前,一位来自遥远的澳大利亚的朋友找到我说:"让我们用算法挖掘比特币吧!给我做一个能找到下一个区块的东西。人们正在生成哈希值中的第 7 位数字,而我们的算法能在不到一小时内找到第 5 位数字....。我们来晚了。
有人会为了兴趣而参加锦标赛,他会想出新的好点子,这对他很有用。
事实上,一百万个参数是 "伟大的均衡器",搜索空间如此之大,以至于我不知道哪种算法会胜出。而黑盒子里会有什么,也是未知数(或者说,它是已知的,但需要找到 "钥匙")。
这很有趣,就像破解保险箱一样!
这 不是算法的问题,而是遗传学、蜂群或其他方面的问题。
1) 这是一个时间和铁的力量问题 !!!!,谁的时间更充裕、铁的力量更强大,谁就能获胜。
2)获得的结果绝不能保证这个特定的 AO 是最好的,因为最好的 AO 很可能是偶然成为最好的(它只是碰巧找到了最好的最大值)。
3)一个函数中超过 20-30 次的测量已经是一个猜测游戏了,在实际问题中,没有人使用 AO 来测量如此庞大的百万参数(测量次数减少)。
4)问题本身的构造不正确,它丝毫没有揭示出 AO 的特殊性,一切都建立在-- 谁能幸运地找到最佳最大值,谁就赢了。
在函数中找到迭代 10 次的最大值是一个正常的问题,它将揭示 AO 的效率,这就是正常圈子中问题的设置方式......
但是,如果你和一个自以为是专家的亵渎者交谈,而他的朋友和顾问就是 gpt 聊天,那又有什么用呢?)
这 不是算法的问题,而是基因、蜂群之类的 问题。
1) 这是一个时间和硬件能力的问题 !!!!,谁拥有更多的时间和更强大的硬件,谁就能获胜。
2)获得的结果并不能保证这个特定的 AO 是最好的,因为最好的 AO 很可能是偶然成为最好的(只是碰巧他找到了最好的最大值)。
3)在一个函数中进行 20-30 次以上的测量已经是一种猜测游戏,而在实际任务中,没有人使用 AO 进行如此庞大的百万参数 测量(测量次数减少)。
4)问题本身的构造不正确,它丝毫没有揭示出 AO 的特殊性,一切都建立在-- 谁能幸运地找到最佳最大值,谁就赢了。
5)在函数中找到迭代 10 次的最大值是一个正常问题,它将揭示 AO 的效率,这就是正常圈子中设置问题的方式......
6) 但是,如果你和一个自以为是专家的亵渎者交谈,而他的朋友和顾问是 gpt 聊天,那又有什么用呢?)
1.黑盒子的运行速度不可能超过 10000,这一点已经得到了证实。无论使用多么强大的硬件都无济于事。
2.一百万个参数不可能偶然得到非随机结果,随机搜索的结果是平均值。只有算法更好,才有机会找到比别人更好的结果。要理解这一点,你需要懂一点概率论,或者至少有一定的分析能力。
3.在实际问题中,有数十亿个变量--现代生成网络。人脑中有几十亿个神经元,你必须每天学习才能理解我们在这里谈论的内容。
4.你不会幸运,我给你 100% 的机会。
5.随机算法从可接受范围内的随机数开始,迭代次数越少,结果越随机。另见第 2 点。
6. 不枉你被粘住 - pateushnik.....好战的无知。
MQL5 的新功能:
朋友们,你们好
有一场战斗,欢迎你们,发出声音吧!.....!
集体农庄万岁!
让专业人士蒙羞吧
https://cran.r-project.org/web/views/Optimization.html