文章 "将您自己的LLM集成到EA中(第1部分):硬件和环境部署"

 

新文章 将您自己的LLM集成到EA中(第1部分):硬件和环境部署已发布:

随着人工智能的快速发展,大型语言模型(LLM)成为人工智能的重要组成部分,因此我们应该思考如何将强大的语言模型集成到我们的算法交易中。对大多数人来说,很难根据他们的需求对这些强大的模型进行微调,在本地部署,然后将其应用于算法交易。本系列文章将采取循序渐进的方法来实现这一目标。

在本地部署LLM时,硬件配置是一个非常重要的部分。这里我们主要讨论主流PC,不讨论MacOS和其他小众产品。

用于部署LLM的产品主要涉及CPU、GPU、内存和存储设备。其中,CPU和GPU是运行模型的主要计算设备,内存和存储设备用于存储模型和数据。

正确的硬件配置不仅可以保证模型的运行效率,而且在一定程度上影响模型的性能。因此,我们需要根据自己的需求和预算选择合适的硬件配置。

作者:Yuqiang Pan

 

关于硬件和操作系统只是泛泛而谈,是桌面小工具的基准,而移动处理器则很抽象,不适用于任务。

感觉这篇文章是由人工智能生成的。

 
与本主题无关的评论已移至"离题......"。
 

我想知道 LLM 能否转换成 ONNX,它的重量是多少:)

似乎可以

RWKV-4 重量不到一千克。

主页
GitHub - tpoisonooo/llama.onnx: LLaMa/RWKV onnx models, quantization and testcase
GitHub - tpoisonooo/llama.onnx: LLaMa/RWKV onnx models, quantization and testcase
  • tpoisonooo
  • github.com
Download onnx models here: Model Precision Size URL Demo News Features Release LLaMa-7B and RWKV-400M onnx models and their onnxruntime standalone demo No or required Support memory pool, works on 2GB laptop/PC (very slow 🐢) Visualization . crashed on LLaMa model. LLM visualization tool must support nest or operator folding feature Quatization...
 
NVIDIA выпустила демоверсию бота Chat with RTX для локальной установки на Windows . Бот не имеет встроенной базы знаний и работает со всеми доступными данными на конкретном компьютере, плюс может обрабатывать содержимое YouTube видео по ссылкам. Для установки боту нужно не менее 40 Гб на диске, и GPU серии RTX 30/40 с минимум 8 Гб видеопамяти.
前几天有这样一则新闻
 
Mark ,good