交易中的机器学习:理论、模型、实践和算法交易 - 页 3399 1...33923393339433953396339733983399 新评论 Maxim Dmitrievsky 2024.02.24 15:03 #33981 mytarmailS #:它们的通用性很好,因为它们是在数十亿个单词数据集上训练出来的,而我们有价格。如果神经元被训练成会说话,那么你要训练它做什么呢?而且你也无法训练你的价格神经元,因为你需要大量的可视化数据。所以,要么是我什么都不知道,要么就是法学硕士跟这有什么关系? 沃龙佐夫在视频中说,你看了。关于基本模型的概念,从一个小时开始。 我问我的 mytarmailS 2024.02.24 15:14 #33982 Maxim Dmitrievsky #:沃龙佐夫在视频中的讲话,你们已经看到了。关于基本模型的概念,从一点钟方向开始。 我想起来了 这是一个概念 任何信息都可以简化为一个向量 他说的是嵌入式模型 没错 但这只是一个概念,而 LLM 是根据文本嵌入训练出来的,仅此而已,它的整个结构都是训练出来的。 因此,如果你决定给它你自己的 OHLC 嵌入,什么也不会发生 ))) 您需要在不同的嵌入式、不同的任务、不同的目标上从头开始训练它......同时,让它写文本、画图、说话等等......换句话说,就是多模态。 如果你想让一个会写文字的神经元去做 "OHLC",那是行不通的。 Maxim Dmitrievsky 2024.02.24 15:18 #33983 mytarmailS #:啊,看,我想起来了。这是一个概念,任何信息都可以还原成一个矢量,他说的是 "嵌入",对,没错。但这只是一个概念,而 LLM 是根据文本嵌入训练出来的,仅此而已,它的整个结构都是根据文本嵌入训练出来的。所以,如果你决定用 OHLC 给它赋予你自己的嵌入,什么也不会发生 )))当模型将其一般 "知识 "转移到您的领域时,可能会发生知识提炼。我对此有点模糊,但大概是这样的。它可以转化为数字、文本、图片甚至声音,也可以转化为程序代码。 mytarmailS 2024.02.24 15:22 #33984 Maxim Dmitrievsky #:当模型将其一般 "知识 "转移到你的领域时,就会发生知识提炼。我对此有点模糊,但大概是这样的。 什么都不会发生。 想象一下,一个在某些数据上训练过的 PCA,这就是神经元的内核。 如果你向其中添加陌生数据,它就会变成神经元从未见过的孤立的点群,并且不知道该如何处理。 她不会转移知识,因为这个点群的坐标是她从未接触过的。 Maxim Dmitrievsky 2024.02.24 15:24 #33985 mytarmailS #:什么都不会发生想象一下在一些数据上训练的 PCA,这就是 Neira 的核心。如果向其中添加陌生数据,它就会变成一个孤立的点簇,而 Neura 从未见过这些点,也不知道该如何处理。她不会转移知识,因为这个点群的坐标是她从未接触过的。现在每个人都是这样做的,根据任务来训练他们。我得找找例子。 你要更新模型的权重(链接),而不是添加新的点。 mytarmailS 2024.02.24 15:28 #33986 Maxim Dmitrievsky #:现在每个人都这么做,为自己的任务训练他们。我得找找例子。 你是在更新模型的权重 而不是添加新的点 你不明白,我不打扰你了 Maxim Dmitrievsky 2024.02.24 15:29 #33987 mytarmailS #:你不明白,我不打扰你了。 我懂,但它不是这么工作的它能把任何信息编码成语义向量 不管数据是什么性质的 都只是符号而已它已经知道所有这些符号,重要的是序列。 Maxim Dmitrievsky 2024.02.24 15:44 #33988 是的,你没有打断我,这只是一个在可预见的未来 "尝试 "的话题:) 1...33923393339433953396339733983399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
它们的通用性很好,因为它们是在数十亿个单词数据集上训练出来的,而我们有价格。
如果神经元被训练成会说话,那么你要训练它做什么呢?
而且你也无法训练你的价格神经元,因为你需要大量的可视化数据。
所以,要么是我什么都不知道,要么就是法学硕士跟这有什么关系?
沃龙佐夫在视频中说,你看了。关于基本模型的概念,从一个小时开始。
我问我的
沃龙佐夫在视频中的讲话,你们已经看到了。关于基本模型的概念,从一点钟方向开始。
我想起来了
这是一个概念 任何信息都可以简化为一个向量 他说的是嵌入式模型 没错
但这只是一个概念,而 LLM 是根据文本嵌入训练出来的,仅此而已,它的整个结构都是训练出来的。
因此,如果你决定给它你自己的 OHLC 嵌入,什么也不会发生 )))
您需要在不同的嵌入式、不同的任务、不同的目标上从头开始训练它......同时,让它写文本、画图、说话等等......换句话说,就是多模态。
如果你想让一个会写文字的神经元去做 "OHLC",那是行不通的。
啊,看,我想起来了。
这是一个概念,任何信息都可以还原成一个矢量,他说的是 "嵌入",对,没错。
但这只是一个概念,而 LLM 是根据文本嵌入训练出来的,仅此而已,它的整个结构都是根据文本嵌入训练出来的。
所以,如果你决定用 OHLC 给它赋予你自己的嵌入,什么也不会发生 )))
当模型将其一般 "知识 "转移到您的领域时,可能会发生知识提炼。我对此有点模糊,但大概是这样的。
它可以转化为数字、文本、图片甚至声音,也可以转化为程序代码。当模型将其一般 "知识 "转移到你的领域时,就会发生知识提炼。我对此有点模糊,但大概是这样的。
什么都不会发生。
想象一下,一个在某些数据上训练过的 PCA,这就是神经元的内核。
如果你向其中添加陌生数据,它就会变成神经元从未见过的孤立的点群,并且不知道该如何处理。
她不会转移知识,因为这个点群的坐标是她从未接触过的。
什么都不会发生
想象一下在一些数据上训练的 PCA,这就是 Neira 的核心。
如果向其中添加陌生数据,它就会变成一个孤立的点簇,而 Neura 从未见过这些点,也不知道该如何处理。
她不会转移知识,因为这个点群的坐标是她从未接触过的。
现在每个人都是这样做的,根据任务来训练他们。我得找找例子。
你要更新模型的权重(链接),而不是添加新的点。现在每个人都这么做,为自己的任务训练他们。我得找找例子。
你是在更新模型的权重 而不是添加新的点你不明白,我不打扰你了
你不明白,我不打扰你了。
我懂,但它不是这么工作的它能把任何信息编码成语义向量 不管数据是什么性质的 都只是符号而已它已经知道所有这些符号,重要的是序列。