文章 "将您自己的 LLM 集成到 EA 中(第 3 部分):使用 CPU 训练自己的 LLM" 新评论 MetaQuotes 2025.02.21 12:36 新文章 将您自己的 LLM 集成到 EA 中(第 3 部分):使用 CPU 训练自己的 LLM已发布: 在人工智能飞速发展的今天,大语言模型(LLM)是人工智能的重要组成部分,所以我们应该思考如何将强大的 LLM 融入到我们的算法交易中。对于大多数人来说,很难根据他们的需求微调这些强大的模型,在本地部署它们,然后将它们应用于算法交易。本系列文章将采取循序渐进的方法来实现这一目标。 在本系列的前一篇文章中,我们讨论了运行大型语言模型的基本环境设置,并在 WSL 中使用 llama.cpp 运行了一个简单的 LLM 实例。最令人兴奋的是,即使没有强大的 GPU,您仍然可以纯粹用 CPU 运行这个例子!本系列教程将尽可能降低硬件要求,努力确保读者可以尝试验证示例,而不会受到硬件问题的阻碍。当然,在我们的模型训练部分,我们还将介绍不同硬件平台的分支,包括纯 CPU 版本和支持 AMD 显卡加速计算的版本,相信每个人都可以在没有硬件限制的情况下尝试。 当然,您可能会想:用 CPU 训练的模型有用吗?这样的模型有什么意义呢?事实上,如果你想训练一个具有复杂功能的模型或使用 CPU 解决复杂任务,这是相当困难的,但仍然可以用它来实现一些特定且相对简单的功能。 在本文中,我们将介绍如何使用 CPU 训练大型语言模型,并创建训练大型语言模块所需的金融数据集。这可能涉及我在其他文章中提到的知识,我在这里不再重复。如果读者想更深入地研究,请阅读我的相关文章,其中将提供相关链接。 作者:Yuqiang Pan 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 将您自己的 LLM 集成到 EA 中(第 3 部分):使用 CPU 训练自己的 LLM已发布:
在人工智能飞速发展的今天,大语言模型(LLM)是人工智能的重要组成部分,所以我们应该思考如何将强大的 LLM 融入到我们的算法交易中。对于大多数人来说,很难根据他们的需求微调这些强大的模型,在本地部署它们,然后将它们应用于算法交易。本系列文章将采取循序渐进的方法来实现这一目标。
在本系列的前一篇文章中,我们讨论了运行大型语言模型的基本环境设置,并在 WSL 中使用 llama.cpp 运行了一个简单的 LLM 实例。最令人兴奋的是,即使没有强大的 GPU,您仍然可以纯粹用 CPU 运行这个例子!本系列教程将尽可能降低硬件要求,努力确保读者可以尝试验证示例,而不会受到硬件问题的阻碍。当然,在我们的模型训练部分,我们还将介绍不同硬件平台的分支,包括纯 CPU 版本和支持 AMD 显卡加速计算的版本,相信每个人都可以在没有硬件限制的情况下尝试。
当然,您可能会想:用 CPU 训练的模型有用吗?这样的模型有什么意义呢?事实上,如果你想训练一个具有复杂功能的模型或使用 CPU 解决复杂任务,这是相当困难的,但仍然可以用它来实现一些特定且相对简单的功能。
在本文中,我们将介绍如何使用 CPU 训练大型语言模型,并创建训练大型语言模块所需的金融数据集。这可能涉及我在其他文章中提到的知识,我在这里不再重复。如果读者想更深入地研究,请阅读我的相关文章,其中将提供相关链接。
作者:Yuqiang Pan