文章 "在算法交易中 KOHONEN 神经网络的实际应用 第二部分优化和预测" - 页 2

 
Maxim Dmitrievsky:

GA 永远不会收敛到全局最优,它是一种以多样性为目标的进化方法。它根本不需要收敛到任何东西。

https://www.monographies.ru/en/book/view?id=707

不是说它的收敛方式不同。而是它只能运行 10K 次。我做一次优化只需不到 2 分钟。为什么不能自动进行上百次这样的优化并显示总结果呢?

 
fxsaber:

这并不是说它的收敛方式不同。而是它仅限于 10K 次。我做一次优化只需要不到 2 分钟。为什么不能自动进行上百次这样的优化并显示总结果呢?

那么你可以在机器人内部对参数进行暴力搜索和随机搜索,并将其保存在表格中。

 
Maxim Dmitrievsky:

那么你就可以在机器人内部对参数进行随机搜索,并将其保存到一个表格中。

随机化和优化是两码事。

 
fxsaber:

随机化和优化是两码事。

naturally ) 添加任何选择标准,仅此而已,分布范围逐渐缩小。

 
Maxim Dmitrievsky:

自然地)添加任何选择标准,就这样,分布范围逐渐缩小。

让我们不要把问题简单化--自己实现任何优化算法。

 
fxsaber:

我们不要把问题简化为显而易见的--自己实现任何优化算法。

问题不在于此,而在于是否需要裸基因。但如果你能想出一些有趣的东西,那就太好了。

 
Maxim Dmitrievsky:

问题不在于此,而在于你是否需要裸体遗传学。但如果你想出了有趣的东西,那很好。

好吧,我不可能像那样用蛮力完成 3000 万次检测。能在 70 秒内得到一个好结果,也许就不错了。但除了手动启动之外,没有任何改进方法。


在研究优化主题的各种变体时(例如这个),我得出一个结论:在真实刻度上创建自动优化可能并不难。这就变得很有趣了,TC 的结果是否会改善?

 
fxsaber:

在真实刻度上创建自动优化并不难。

我遇到了可重复性的问题:各次之间不存在可重复性。有什么方法可以获得相同的自动优化通过?

 
fxsaber:

面临重复性的问题:重复性并不存在于每次试验中。有什么方法可以获得相同的自动优化传递?

MathSrand(),如果那里有 HSC。

 
Maxim Dmitrievsky:

如果有 DST,则使用 MathSrand()。

谢谢,很有帮助。