Предупреждение: TensorFlow 2.10 был последним выпуском TensorFlow, который поддерживал GPU в родной Windows.
Начиная с TensorFlow 2.11 , вам нужно будет установить TensorFlow в WSL2 или установить tensorflow-cpu и,
при желании, попробовать TensorFlow-DirectML-Plugin.
你才刚刚开始处理互不兼容的问题,并为 Python 中的任务创建独立的环境。
有些软件包的目标构建需要编译器。
完全同意!这是一项艰巨的工作。在这方面有两个问题:
1.使用 GPU 创建的模型能否转换为 ONNX?
2.我们不需要 Python 就能在 MQL5 Expert Advisor 中获得 ONNX 中的模型预测吧?计算将由 onnxruntime 环境执行?
我完全同意!工作量很大。两个问题
1.使用 GPU 创建的模型能否转换为 ONNX?
2.要在 MQL5 Expert Advisor 中获得 ONNX 中的模型预测,我们不需要 Python,对吗?计算将由 onnxruntime 环境执行?
理论上可能是这样。但在实践中可能会发现,只有在 Python 中训练的模型才是合适的,而且只适用于某些独特的软件包、实用程序和编译器环境(考虑到它们的版本号)。至少我是这样理解 Renate 的提示的。
我完全同意!工作量很大。两个问题
1.使用 GPU 创建的模型能否转换为 ONNX?
2.要在 MQL5 Expert Advisor 中获得 ONNX 中的模型预测,我们不需要 Python,对吗?计算将由 onnxruntime 环境执行?
1.是的,这取决于源引擎,它可以在现有操作集中转换为 ONNX
2.执行模型不需要 Python,只需要一个 EX5 文件和一个终端。甚至很快就不需要 ONNX 运行库了
2.执行模型不需要 Python,只需要一个 EX5 文件和一个终端。甚至很快就不需要 ONNX 运行库了
那么这东西能在半导体上工作吗?
1.是的,这取决于能在现有操作集中转换为 ONNX 的源引擎
2.执行模型不需要 Python,只需要一个 EX5 文件和一个终端。甚至很快就不需要 ONNX 运行库了
1. 我们有 opset=14 吗?我使用 PyTorch(1.12.1) 和 TF(2.10)。
2.极其重要,这将是此次集成的最大优势。非常好
最有趣的事情是用 R 制作的 ONNX 模型能否运行。
如果能提供一份受支持的 ONNX 版本和 opsets 的列表,将非常有用。
最有趣的是,用 R 语言制作的 ONNX 模型能否运行。
我们甚至可以加重这个问题。用 R 制作的 ONNX 模型能在 linux 中运行吗?
最有趣的是,用 R 语言制作的 ONNX 模型能否运行。
提供一份受支持的 ONNX 版本和 opsets 列表并非没有道理。
第二个问题
您使用哪些 R 软件包来创建模型?
为了以防万一,我把这个项目放到了档案中。