文章 "交易中的神经网络:探索局部数据结构" 新评论 MetaQuotes 2025.06.10 11:27 新文章 交易中的神经网络:探索局部数据结构已发布: 在嘈杂的条件下有效识别和预存市场数据的局部结构是交易中的一项关键任务。运用自注意力机制在处理这类数据方面展现出可喜的结果;不过,经典方式并未考虑底层结构的局部特征。在本文中,我将引入一种能够协同这些结构依赖关系的算法。 变换器已证明其在处理各种任务方面的有效性。与卷积相比,自注意力机制能够自适应过滤掉嘈杂、或不相关的点。无论如何,原版变换器在序列中的所有元素上应用相同的变换函数。这种各向同性方式忽略了空间关系和局部结构信息,诸如从中心点到其相邻点的方向和距离。如果重新排列点的位置,则变换器的输出维持不变。这给识别物体的方向性带来了挑战,其对于检测价格形态至关重要。 论文《SEFormer:检测 3D 物体结构的嵌入转换器》的作者旨在通过开发一种新的转换器架构 — 结构嵌入 transFormer(SEFormer)来结合这两种方式的优势,其有能力配以注意力方向和距离为局部结构编码。所提议 SEFormer 学习来自不同方向和距离点的 数值 的不同变换。相较之,局部空间结构的变化会反映在模型的输出之中,为准确识别物体方向性提供了关键。 作者:Dmitriy Gizlyk Arda Kaya 2025.04.24 16:15 #1 好文章 Dmitriy Gizlyk 2025.04.26 13:28 #2 Arda Kaya #: 文章不错 谢谢。 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 交易中的神经网络:探索局部数据结构已发布:
变换器已证明其在处理各种任务方面的有效性。与卷积相比,自注意力机制能够自适应过滤掉嘈杂、或不相关的点。无论如何,原版变换器在序列中的所有元素上应用相同的变换函数。这种各向同性方式忽略了空间关系和局部结构信息,诸如从中心点到其相邻点的方向和距离。如果重新排列点的位置,则变换器的输出维持不变。这给识别物体的方向性带来了挑战,其对于检测价格形态至关重要。
论文《SEFormer:检测 3D 物体结构的嵌入转换器》的作者旨在通过开发一种新的转换器架构 — 结构嵌入 transFormer(SEFormer)来结合这两种方式的优势,其有能力配以注意力方向和距离为局部结构编码。所提议 SEFormer 学习来自不同方向和距离点的 数值 的不同变换。相较之,局部空间结构的变化会反映在模型的输出之中,为准确识别物体方向性提供了关键。
作者:Dmitriy Gizlyk