文章 "分歧问题:深入探讨人工智能的复杂性可解释性"

 

新文章 分歧问题:深入探讨人工智能的复杂性可解释性已发布:

在这篇文章中,我们将探讨理解人工智能如何工作的挑战。人工智能模型经常会以难以解释的方式做出决策,这就是所谓的 "分歧问题"。这个问题是提高人工智能透明度和可信度的关键。

分歧问题是可解释人工智能(XAI,Explainable Artificial Intelligence)的一个重要研究领域。XAI 旨在帮助我们了解人工智能模型如何做出决策,但这说起来容易做起来难。

我们都知道,机器学习模型和可用数据集正在变得越来越大、越来越复杂。事实上,开发机器学习算法的数据科学家无法准确解释他们的算法在所有可能的数据集中的行为。  可解释的人工智能(XAI)可以帮助我们建立对模型的信任,解释模型的功能,并验证模型是否可以部署到生产中;但尽管这听起来很有希望,本文将向读者展示为什么我们不能盲目相信可解释的人工智能技术应用所提供的任何解释。 

作者:Gamuchirai Zororo Ndawana

 
遗憾的是,这些解释只适用于静态依赖关系,即预测因子的重要性不随时间变化。对于花朵、花瓣数量等来说,这种预测因子很容易获得,但对于金融市场来说却很难获得。
此外,现代模型能够独立地取消某些属性的参与。
 
Maxim Dmitrievsky 取消 某些属性的参与。
事实上,要获得金融数据集的预测因子非常困难,我想到的唯一可行的办法就是利用手头的数据创建一个新的目标,这样我们就拥有了新目标的所有预测因子。例如,如果我们在图表中应用布林线,价格可能会处于 4 种状态。完全在布林带上方、在布林带上轨和中轨之间、在布林带下轨上方、在布林带下轨下方或完全在布林带下方。如果我们将这些状态定义为 1、2、3、4,我们就能比预测价格本身的变化更精确地预测市场的未来状态。

国家


从我训练的模型来看,即使只有当前市场状态的数据就足够了,添加 OHLC 和布林带读数也不会提高多少准确性或稳定性。在上面的屏幕截图中,我训练了一个 LDA 分类器来预测证券的下一个状态,这种方法的主要缺点是可能会在预测过程中失去直观性,例如,如果模型预测价格将保持在状态 1,我们就不知道价格是上涨还是下跌,只有当系统预测状态发生变化(从 1 到 2)时,我们才知道价格将走向何方。这是我目前能想到的唯一解决方案,利用我们所掌握的数据创建新的目标,这样我们就知道这种关系的存在,我们自己创建了这种关系。

 
Gamuchirai Zororo Ndawana #:
事实上,要获得一组金融数据的预测指标非常困难,我能想到的唯一解决办法就是利用现有数据创建一个新目标,然后我们就能获得新目标的所有预测指标。例如,如果我们在图表中应用布林线,价格可能会处于 4 种状态。完全高于布林线、介于布林线上轨和中轨之间、高于布林线下轨但低于布林线中轨或完全低于布林线。如果我们将这些状态定义为 1、2、3、4,我们就能比价格本身的变化更准确地预测未来的市场状态。


从我训练过的模型来看,即使只有当前的市场状态也足够了,添加 OHLC 和布林线读数并不能提高多少准确性和稳定性。在上面的截图中,我训练了一个 LDA 分类器来预测证券的下一个状态。例如,如果模型预测价格将保持在状态 1,我们不知道价格是上涨还是下跌,我们只知道如果系统预测状态发生变化,价格将从 1 变为 2。

你应该读一读这些悲惨的史前BB的代码,它们就在\MQL5\Indicators\Examples\BB.mq5中。又是霉烂、沉闷的面具,试图计算一些标准偏差....

 
Alexey Volchanskiy #:

你应该读一读这些悲惨的史前BB的代码,然而在\MQL5\Indicators\Examples\BB.mq5中就有。又是霉烂、沉闷的面具,试图计算一些标准偏差....

我曾经试着在你指定的示例路径中阅读 RSI 指标的代码,老实说,我发现阅读起来很有挑战性,我不确定自己是否完全理解了所有代码的作用。
你认为像 Vortex 指标这样的现代指标是否克服了经典指标的某些局限性?或者说,这个问题是技术指标所固有的,因为大多数技术指标都依赖于某些参数,而这些参数需要在噪声相当大的情况下进行计算和优化?