交易中的机器学习:理论、模型、实践和算法交易 - 页 3398

 
Aleksey Vyazmikin #:

对整个主题的精辟概括


听得津津有味
 
mytarmailS #:
我听得津津有味
这个也不错https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
基础知识的末尾有一个 "kozula",我想提请大家注意这一点。
 
我觉得一开始应该是反过来的。
 
mytarmailS #:
我想说的是开头的反方向。
我指的是阿列克谢的视频,我还没看过你的。你的视频是关于功能选择的。我不太喜欢,因为我没有太多的标志)。
 
Maxim Dmitrievsky #:
因为我的特征不多)。

就是这样,从 "许多 "不同的特质中,你会得到 "不多 "但很好的特质。

开始的 "多 "越多,最后的 "不多 "但 好的就越丰富、越好。

 
mytarmailS #:

就是这样,在 "许多 "不同的人中,你会得到 "不多 "但很好的人。

一开始的 "许多 "越多,最后 得到的"不多 "但 好的就越丰富、越好

这已经通过 gmdh 或其他什么方法实现了。
Kozul 似乎很有前途(在它的基础上提出算法非常困难,你必须有天马行空的想象力)。而语言模型则很难训练。谷歌提供的这些模型比较简便,有一个小型模型可提供 20 亿个参数,你仍然可以尝试训练它。一次性方法。
 
Maxim Dmitrievsky #:
它是通过 gmdh 或其他 实现的。
Kozul 似乎很有前途(在它的基础上提出算法非常困难,你必须有天马行空的想象力)。而语言模型--训练起来非常困难。谷歌提供的这些模型比较简便,有一个小型模型,有 20 亿个参数,你仍然可以尝试训练它。一次性方法。

LLM 与此有何关系?

 
mytarmailS #:

法学硕士和这有什么关系?

因为从理论上讲,它们具有很好的概括性。

一般来说,训练样本越大,统计结果越好。

 
Maxim Dmitrievsky #:
因为从理论上讲,它们的通用性很好。

因为它们是在数十亿个单词数据集上训练出来的,而我们有价格。

如果神经元被训练成会说话 你还能训练它做什么?

你也不能训练你的神经元去计算价格,因为你需要大量的可视化数据。


所以,要么是我什么都不知道,要么就是--法学硕士跟这有什么关系?

原因: