Last week, IBM announced that they had simulated a brain with the number of neurons and synapses present in a cat's brain. In February 2008, the National Academy of Engineering issued a grand challenge to reverse engineer the human brain, sweetening a pot neuroscientists had already been stirring for a long time. There are as many theories of...
但我也带来了一个反对的论据。如果相机也是一个望远镜的话,它的能力已经多次超越了眼睛。))
这种说法值得怀疑,在发现望远镜之前,所有的天文学都是由那些眼睛正常的人研究出来的,在这个行业中,主要的事情不是图像的传输,而是图像的解释,尽管我同意那个有10米长眼睛的人是一个可怕的景象:)
顺便说一下,计算机在许多方面也超过了人类,尽管它不是按照大脑的样子创造的。
...
....而最棒的是,通过过滤掉不必要的信息并建立一个市场的数学模型,你可以在没有NS的情况下建立一个有效的TS。
令人怀疑的说法,所有的天文学都是在发现望远镜之前由普通人的眼睛研究出来的,这个行业的主要事情不是图像的传输,而是它的解释,虽然我同意那个有10米眼睛的人是一个令人毛骨悚然的景象:)
顺便说一下,计算机也在许多方面超过了人类,尽管它不是按照大脑的样子创造的。
但是目前的计算机模型已经 "吱吱作响"。要进一步发展是很困难的,甚至几乎不可能。这就是为什么Kwabena等人正试图实现一个类似于大脑的模型。
如果一个人被放大到10米望远镜眼睛的比例,他就不会再看起来猥琐了。当然,如果你把望远镜变小到目前的眼睛大小,也可以。)))
对浪费的时间感到难过--你不能处理NS,而是要一次性分析和过滤数据
ZS:我不是故意的,但我还是要说我是如何看待所有初学者在NS中寻找的,至少是形象的:如果不是一个美丽的名字"神经网络",而是例如 "指数回归数学拟合",那么人们对这种数学工具的兴趣和期望就会减少,但由于名字好听,人们期望从 "聪明的对数尺子 "中获得奇迹。
但是目前的计算机模型已经 "吱吱作响"。要进一步发展是很困难的,甚至几乎不可能。这就是为什么同样的Kwabena等人正在试图实现一个类似大脑的模型。
如果一个人被放大到10米望远镜眼睛的比例,他就不会再看起来猥琐了。当然,如果你把望远镜变小到目前的眼睛大小,也可以。)))
计算机数学本身实现了300年前的方法,这就是为什么它是一个僵局。
数学实际上不发展平行方法是问题的关键所在。
借鉴的主要是方法的平行性,NS在这方面是一个进步,但按照自然NS复制NS的工作是一个退步。
你能亲自认识这样的研究人员真是太好了。你是否碰巧认识亨利-马克拉姆?他在2009年的预测是10年。:)我想知道他现在的处境。
亨利-马克拉姆正在超级计算机中构建一个大脑
不,不是个人。但我对他的蓝脑项目很熟悉。马克拉姆认为,只有当我们准确地模拟神经元的工作方式(离子通道、描述离子运动和电冲动在整个神经元体内传播的差异方程、延迟等),我们才能理解和复制我们大脑的工作方式。2009年,IBM向世界宣布,他们已经建立了一个猫脑模型。马克拉姆相当愤慨(http://spectrum.ieee.org/tech-talk/semiconductors/devices/blue-brain-project-leader-angry-about-cat-brain),声称IBM的研究人员使用了点耦合神经元,即简单的数学模型(如经典网络的神经元,其加权输入之和和非线性激活函数)。这个领域的另一位有趣的科学家是彭罗斯。所以他声称,即使知道离子交换、化学反应和冲动在神经元体内传播的所有细节,也不足以理解和解释大脑的工作原理。他认为,只有考虑到神经元内的量子反应,这才有可能(哈默罗夫-彭罗斯理论)。在此阅读https://en.wikipedia.org/wiki/Quantum_mind。 彭罗斯还声称,通过这些量子反应,我们的大脑能够 "进入 "其他维度并从那里汲取知识。在YouTube上查找他的讲座(Roger Penrose)。他们是疯狂的有趣。
我对马克拉姆的预测并不熟悉。直到20世纪90年代,神经生物学家认为,神经元之间的信息交换是可以用数字描述的脉冲数量,这就是经典网络的由来。在90年代中期,科学家发现单个冲动的时间比它们在一段时间内的数量更重要。马克拉姆和其他科学家发现了一个改变突触权重的新规则,即STDP。在过去的10年中,许多神经生物学家开始建立所谓的尖峰网络,其中信息以脉冲形式分布(像0/1二进制信号),权重因STDP而变化。这些神经科学家开始认为,经典网络之所以不能导致机器人,是因为他们对信息(数字而不是脉冲)、神经元(加权输入之和而不是差分方程)和改变权重(赫伯规则而不是STDP)的描述不正确。但不幸的是,这些新的尖峰网络在能力上还没有超过经典网络。此外,它们还需要更多的计算机功率。所以到目前为止,神经生物学没有什么进展,我们也不应该期待能够揭示模式的新网络。
也就是说,如果你建立一个模型来描述市场运动中的权重变化,结果可能会有所不同,不会那么令人沮丧。你做过这种研究吗?
在你的闲暇时间做这个。
这就需要第二个网格,寻找第一个网格的权重随市场变动而变化的模式。那么你就需要第三个网格,它也会在第二个网格中寻找与第一个网格和市场的变化有关的依赖关系。然后是第四个......。
假设我们建立了一个描述市场中权重变化的模型。我们接下来该怎么做?
悠着点吧。
这就需要第二个网格,根据市场的变化,寻找第一个网格的权重的变化模式。然后你需要第三个网格,当第一个网格和市场发生变化时,它也会在第二个网格中寻找依赖关系。然后是第四个......。
而在这里,我从市场上拿了3年的钱,不知道在第一个网格之后,还需要第二个......。
对我这个有分析能力的人来说,读这样的线程是很危险的,我不挣钱了,我不考虑了....。
而在这里,我从市场上拿了3年的钱,却不知道在第一个网络之后,我还需要第二个网络......。
也就是说,如果你建立一个模型来描述市场运动中的权重变化,结果可能会有所不同,不会那么令人沮丧。你做过这种研究吗?
不,我没有。我不认为会有什么好的结果。以下是我的想法。假设我们使用多项式回归而不是网络,这是普遍的非线性建模的另一种方式。所以我们的任务是拟合多项式
y = a0 + a1*x + a2*x^2 + ...
通过寻找系数a0, a1, a2,,将其纳入我们的数据y(x)。以减少我们的多项式模型的误差。我们知道,我们的多项式模型只有在进行拟合的数据上才是好的。从本质上讲,你提议让模型系数a0、a1、a2、......。(网络的相同权重)取决于输入数据,以使模型在未学习的数据上更加稳健,即使a1(x),a2(x),。好的,我们用不同的多项式来描述每个系数。
a1 = b0 + b1*x + b2*x^2 + 。
a2 = c0 + c1*x + c2*x^2 +...
...
将这些系数代入我们的第一个模型,我们会得到什么?同样的多项式,但阶数更高,可以更准确地描述训练数据,但在新数据上表现不佳。这与网络完全一样。一个网络培训另一个网络,另一个网络培训第三个网络,以此类推,它只不过是一个大网络。我们不会在新数据上得到任何更准确的行为。但如果有人想测试这个想法,请让我们知道结果。