交易中的机器学习:理论、模型、实践和算法交易 - 页 3398 1...339133923393339433953396339733983399 新评论 mytarmailS 2024.02.24 06:59 #33971 Aleksey Vyazmikin #:对整个主题的精辟概括 听得津津有味 mytarmailS 2024.02.24 08:43 #33972 mytarmailS #: 我听得津津有味 这个也不错https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc ; Maxim Dmitrievsky 2024.02.24 10:12 #33973 基础知识的末尾有一个 "kozula",我想提请大家注意这一点。 mytarmailS 2024.02.24 10:17 #33974 我觉得一开始应该是反过来的。 Maxim Dmitrievsky 2024.02.24 10:19 #33975 mytarmailS #: 我想说的是开头的反方向。 我指的是阿列克谢的视频,我还没看过你的。你的视频是关于功能选择的。我不太喜欢,因为我没有太多的标志)。 mytarmailS 2024.02.24 10:29 #33976 Maxim Dmitrievsky #: 因为我的特征不多)。 就是这样,从 "许多 "不同的特质中,你会得到 "不多 "但很好的特质。 开始的 "多 "越多,最后的 "不多 "但 好的就越丰富、越好。 Maxim Dmitrievsky 2024.02.24 12:27 #33977 mytarmailS #:就是这样,在 "许多 "不同的人中,你会得到 "不多 "但很好的人。一开始的 "许多 "越多,最后 得到的"不多 "但 好的就越丰富、越好。 这已经通过 gmdh 或其他什么方法实现了。Kozul 似乎很有前途(在它的基础上提出算法非常困难,你必须有天马行空的想象力)。而语言模型则很难训练。谷歌提供的这些模型比较简便,有一个小型模型可提供 20 亿个参数,你仍然可以尝试训练它。一次性方法。 mytarmailS 2024.02.24 13:25 #33978 Maxim Dmitrievsky #: 它是通过 gmdh 或其他 实现的。 Kozul 似乎很有前途(在它的基础上提出算法非常困难,你必须有天马行空的想象力)。而语言模型--训练起来非常困难。谷歌提供的这些模型比较简便,有一个小型模型,有 20 亿个参数,你仍然可以尝试训练它。一次性方法。 LLM 与此有何关系? Maxim Dmitrievsky 2024.02.24 13:29 #33979 mytarmailS #:法学硕士和这有什么关系? 因为从理论上讲,它们具有很好的概括性。 一般来说,训练样本越大,统计结果越好。 mytarmailS 2024.02.24 13:59 #33980 Maxim Dmitrievsky #: 因为从理论上讲,它们的通用性很好。 因为它们是在数十亿个单词数据集上训练出来的,而我们有价格。 如果神经元被训练成会说话 你还能训练它做什么? 你也不能训练你的神经元去计算价格,因为你需要大量的可视化数据。 所以,要么是我什么都不知道,要么就是--法学硕士跟这有什么关系? 1...339133923393339433953396339733983399 新评论 原因: 取消 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
对整个主题的精辟概括
我听得津津有味
我想说的是开头的反方向。
因为我的特征不多)。
就是这样,从 "许多 "不同的特质中,你会得到 "不多 "但很好的特质。
开始的 "多 "越多,最后的 "不多 "但 好的就越丰富、越好。
就是这样,在 "许多 "不同的人中,你会得到 "不多 "但很好的人。
一开始的 "许多 "越多,最后 得到的"不多 "但 好的就越丰富、越好。
它是通过 gmdh 或其他 实现的。
LLM 与此有何关系?
法学硕士和这有什么关系?
因为从理论上讲,它们具有很好的概括性。
一般来说,训练样本越大,统计结果越好。
因为从理论上讲,它们的通用性很好。
因为它们是在数十亿个单词数据集上训练出来的,而我们有价格。
如果神经元被训练成会说话 你还能训练它做什么?
你也不能训练你的神经元去计算价格,因为你需要大量的可视化数据。
所以,要么是我什么都不知道,要么就是--法学硕士跟这有什么关系?