人工神经网络。 - 页 3

 
gpwr:

网络是一种工具,一种通用的非线性函数,可以针对不同的数据(输入-输出)进行优化(调整)。这个函数不能提取任何规律性的东西。

确实如此 :)

NS是在输入-输出数据上进行训练的,如果这些模式对一般人来说是通用的,那么NS就会在样本之外成功工作。

而隔离规律性是分析NS的训练权重和转移函数的额外一层工作,我自己从来没有亲自做过。

人脑能够非常成功地学习非线性模式。以计算非洲某地布什曼部落发射的回旋镖的轨迹为例。大自然给了我们一切。你可以有目的地在市场 上学习非线性模式。我个人想写一个如下的VBA学习程序:我将在图表上显示一系列小的报价,比如,100-150条,我需要猜测未来价格的大方向,比如,50条。我将按下向上/向下的按钮,程序将记录我的答案以及我是否猜中。之后,图表会在时间轴上随机移动,等等。结果是,我要么学习(猜中方向的百分比会增加),要么不学习(比如,对不起,失败)。这将是一个很好的例子,说明大脑的可训练性。

 
gpwr:

网络是一种工具,一种通用的非线性函数,可以针对不同的数据(输入-输出)进行优化(拟合)。这个函数不能拾取任何规律性的东西。你也可以说,一个拟合于平滑曲线的多项式可以找到其隐藏的模式。走出函数被拟合的数据范围,你就知道你会得到什么,这是一个多项式回归的例子。顺便说一下,网络中需要优化的参数数量要比决策树大得多,因为网络中包含不影响正确决策的子连接,其权重在优化过程中会减少。

用网络来近似市场数据是一回事,而做模式识别则是另一回事。

第二种说法似乎更正确--毕竟是交易者的大脑在识别图像。

 
joo:

通过网络近似市场数据是一回事,而识别图像则是另一回事。

第二种说法似乎更正确--毕竟是交易者的大脑在识别图像。

来自谷歌的工程师向自我学习网络(什么类型我不知道)提供了YouTube视频的截图,该网络学会了将猫作为一个单独的类别来区分。可以估计有多少信息在RAM中流传。理论上,可以向电网发送图表,但必须是一个巨大的复杂网络和合适的计算机。在例如[0;1]的范围内发送一个归一化的价格模式比较容易。而且静止性得到了保留,而且很容易实现。基本上,交易者看到的是价格形态,而有的交易者使用纯图表(没有指标)进行交易。但显然,该网络必须不断地被重新训练。因为我们的大脑也在不断地更新连接,提高我们对这个过程的理解。
 
alexeymosc:
谷歌的工程师给自学网络(什么类型我不知道)输入了YouTube视频的截图,该网络学会了将猫分成一个单独的类别。可以估计有多少信息在RAM中转来转去。理论上,可以向电网发送图表,但必须是一个巨大的复杂网络和合适的计算机。在例如[0;1]的范围内发送一个归一化的价格模式比较容易。而且静止性得到了保留,而且很容易实现。基本上,交易者看到的是价格形态,而有的交易者使用纯图表(没有指标)进行交易。但显然,该网络必须不断地被重新训练。因为我们的大脑也在不断地更新连接,提高我们对这个过程的理解。
当交易员 "看到 "一个模式时,他或她不会分析一个纯粹的价格系列。 没有一个人的大脑有这么多的RAM(顺便说一下,这是一个思考的RAM--最多几百个字节)。因此,信号预处理是强制性的。
 
alsu:
当交易员 "看到 "一个模式时,他或她不会分析一个纯粹的价格系列。 没有一个人的大脑有这么多的RAM(顺便说一下,这是一个思考的RAM--最多几百个字节)。因此,信号预处理是强制性的。

我没有听说过这一点。好的。那么当然就很难理解CD的哪些方面是由大脑感知的。这就是所有试图在NS基础上制作类似东西的问题。传入信息的重要标志没有被定义,所以我们必须猜测。

但是--就我个人而言,我最理解的是弯曲和尖峰:)

 
alexeymosc:

我没有听说过这一点。好的。那么当然就很难理解CD的哪些方面是由大脑感知的。这就是所有试图在NS基础上制作类似东西的问题。传入信息的重要标志没有被定义,所以我们必须猜测。

但是--就我个人而言,我最理解的是弯曲和山峰 :)

在我看来,这很有希望--通过NS清除价格信息的噪音。基本上,一个有用的信号是由少量的参数描述的,例如,如果我们把M1的一天,它们可以是10-20(而不是1440),这很容易被人脑理解。问题是如何正确清除信号而不丢失重要信息。这就是网络可以帮助的地方,IMHO。那么,要处理(分类、聚类、回归等)其余部分,可以用任何合适的方法,而不是事实,顺便说一下,NS将是最好的选择。在任何情况下,都有许多为此类任务开发的工具,其中最重要的原因是,所有这些工具的工作效果同样糟糕)))。
 
alsu:
我认为,在NS的帮助下,清除价格信息的噪音是非常有希望的。基本上,一个有用的信号是由少数参数描述的,例如,如果我们以M1的一天为例,可以有10-20个(而不是1440个),这对人脑来说是很容易感知到的。问题是如何正确清除信号而不丢失重要信息。这就是网络可以帮助的地方,IMHO。那么,要处理(分类、聚类、回归等)其余部分,可以用任何合适的方法,而不是事实,顺便说一下,NS将是最好的选择。在任何情况下,都有许多为此类任务开发的工具,其中最重要的原因是,所有这些工具的工作效果同样糟糕)))。
阿列克谢,你直接谈论的是特征选择问题,也就是说,用通俗的语言来说:如何从现有的数组中选择1%的数据,为预测提供最多信息,如:输入多头,输入空头,等待。但是,即使将复杂的技术应用于这个问题,陷阱也很快就出来了。首先,不清楚用什么酱油来喂养选定的数据点:原始值是不合适的,你需要预处理。如果你把457条和891条之间的差异,以及1401条和1300条之间的差异拿出来,也许会有效果。有很多选择,而且没有足够的时间把它们全部破解掉。
 

另一件关于信息实际进入大脑的事情。一个非常有启发性的例子是图像的分形压缩。它只是表明,实际上在视觉上对一个人的感知,有足够的信息在数千甚至数万倍小于 "原始 "尺寸的图像。

我想知道使用分形算法压缩商数可以达到什么比例?100?500? 更多?

 
alexeymosc:
阿列克谢,你直接谈论的是特征选择问题,用通俗的话说就是:如何从数组中选择1%的数据,为预测提供最多信息,比如:输入多头,输入空头,等待。但是,即使将复杂的技术应用于这个问题,陷阱也很快就出来了。首先,不清楚用什么酱油来喂养选定的数据点:原始值是不合适的,你需要预处理。如果你把457条和891条之间的差异,以及1401条和1300条之间的差异拿出来,也许会有效果。有很多变体,我没有足够的时间把它们全部破解掉。
还有一个问题是解释算法的输出。很多时候,我们试图建立相同的网络,使其输出有一个明确的信号,要做什么,或者至少将相对可以理解的信息(对设计者来说)转换为这样的信号。但这并不是说网络以这样的形式给出信息是很方便的,也许给我们提供的不是大致的1.5比特(买入-卖出-停止),而是比如说10比特的信息会容易得多?
 
alsu:
还有一个问题是解释算法的输出。我们经常试图建立同样的网络,使输出有一个明确的信号,说明要做什么,或者至少是相对可以理解的信息(对设计者来说),以转化为这样的信号。但不确定的是,以这样的形式输出信息是否方便,也许给我们提供的不是大致上的1.5比特(通过出售-停止),而是,例如,10比特的信息会更容易?
顺便说一句,好的观点。基本上,我们正试图将输入的信息压缩到这样一个水平,即我们可以清楚地做出决定(买入-卖出-停止)。很可能最好的解决方案是压缩比为1(即不压缩或接近压缩)。输入的图像对网格来说是可以理解的,输出的图像对人来说是可以理解的。