人工智能2020--有进展吗? - 页 13 1...67891011121314151617181920...74 新评论 [删除] 2020.06.19 12:57 #121 是的,你在这里有很多事情要做。智力仍然是由人设定的--但这是第一个阶段。第二阶段,智力将设定为智力,这将是人类的终点 Igor Makanu 2020.06.19 13:05 #122 Vitaliy Maznev:我自己也在想,到底什么是复杂的思想过程? 在人类中,那里的一切都很复杂。 人类的任何学习都只是在神经元之间形成稳定的联系;联系越强,经验越多--这里的一切都很简单。 这是更复杂的扭曲,扭曲的心理(认知)和外部世界的感知 - 他们引入错误和纠正以前的经验 而机器的一切都更简单--它不能扭曲数据,如果你假设机器可以被训练,那么训练将是不同的,但机器不能比较它以前的经验,并决定新的知识将是有用的或有害的,即总是有一个内部的我,将允许新的知识成为经验或不--它很可能是潜意识做到这一点。 Vitaliy Maznev 2020.06.19 13:05 #123 Реter Konow:我几乎无能为力--我自己还不明白。我只知道思维算法的存在,我们之所以有智慧,是因为它存在。 好吧,我想既然你表达了一种语言上的操作格式,那么在这里任务上的一些不和谐是合乎逻辑的。但人与人之间也会产生同样的不和谐。一个人说的话不一定是另一个人听到的。而它产生于语言学的组成部分。而这里至少有两个阶段的潜在失真:第一个阶段是说话者不经意地表达想法,第二个阶段是感知者对表达的处理。 现在让我们回到语义部分。在这个水平上,不可能有失真。在意义层面上,一个想法同样是既产生又被感知的。这方面的一个例子是神经接口。它们毕竟直接捕捉到了明确的语义代码(无论是简单的神经提示还是更多的语义序列)。如果人工智能建立在固有的语义格式上,有转换格式的选项,包括转换为语言形式,那么我不认为处理信息和产生相关表达的困难是以人工智能为代价的。 事实上,在声称困难之前,你至少应该直接面对它们。因此,当复杂性甚至没有潜在的定义时,人们怎么能对它下结论呢? Vitaliy Maznev 2020.06.19 13:08 #124 Igor Makanu:另一方面,机器不能比较它以前的经验,并决定新的知识是否有用,或者反过来说,是否有害。 是什么阻止了机器记录经验并从中得出结论?在我看来,许多项目就是这样运作的。以文本编辑器中的更正建议为例。这里不是有一些嵌入式的经验和推论吗,什么是正确的,什么可能是不正确的? Igor Makanu 2020.06.19 13:17 #125 Vitaliy Maznev:是什么阻止了机器记录经验并从中得出结论?在我看来,许多节目就是这样运作的。以文本编辑器中的更正建议为例。对于什么是正确的,什么可能是错误的,难道没有一些固有的经验和结论吗? 我在写--犯错是人的天性,甚至重新学习的过程也总是被扭曲。 如果你得出通常的结论--邻居是个酒鬼,每天晚上都喝酒,在一次雷雨中,雷电交加,邻居的房子被烧毁,结论是喝酒是有害的,可能有严重的后果))))。 车上的人比起闪电和喝酒?- 人们,在数量上,将能够比较自然现象和人类的弱点 顺便说一下,许多伟大而有才华的科学家都有不稳定的心理,然后是童年的创伤,然后是艰难的生活状况,作为对现实认知的变体错误,并帮助使他们有才华......但这并不确定! Vitaliy Maznev 2020.06.19 13:20 #126 Igor Makanu:机器会不会把闪电和醉酒作比较? 比较任何数据的困难是什么?特别是在某些数据经常重叠的情况下?可以1)最初从一个数据链接到另一个数据,2)为多个交叉点设置自动匹配的方向。比方说,一开始需要做很多调整。但总的来说,我个人认为这些东西已经实施了很长时间了(这可以作为一个主观的观点)。 Igor Makanu 2020.06.19 13:25 #127 Vitaliy Maznev:比较一些数据的难度在哪里?特别是在某些数据经常重叠的情况下?可以1)最初从一个数据链接到另一个数据,2)为多个交叉点设置自动匹配的方向。比方说,一开始需要做很多调整。但总的来说,我个人认为这些东西在很久以前就已经实施了(这可以被视为一种主观的观点)。 这取决于人工智能的创造者,通常每个人都希望机器不犯错,同时机器必须像人一样思考,而人经常通过他的经验的棱镜思考,其中有一部分是错误。 而你写的东西早已实现,被称为专家系统 Vitaliy Maznev 2020.06.19 13:28 #128 Igor Makanu:这取决于人工智能的创造者,通常每个人都希望机器不犯错,同时机器必须像人一样思考,而人经常通过他的经验的棱镜来思考,其中有一部分是错误。 这纯粹是一个偏好的问题。有可能把精神分裂症或精神分裂症和将其排除在外的数据都放入智力。而且可以初步确定观点的界限和原则。在这种情况下,人工智能将能够以他/她的方式与受访者进行专门的沟通。和一个傻瓜一样的傻瓜,和一个科学家一样的科学家。 Реter Konow 2020.06.19 13:30 #129 Vitaliy Maznev:好吧,我想既然你表达了一种语言上的操作格式,那么任务中的一些不协调在这里是合乎逻辑的。但人与人之间也会产生同样的不和谐。一个人说的话不一定是另一个人听到的。而它产生于语言学的组成部分。而这里至少有两个阶段的潜在失真:第一个阶段是说话者不经意地表达想法,第二个阶段是感知者对表达的处理。现在让我们回到语义部分。在这个水平上,不可能有失真。在意义层面上,一个想法同样是既产生又被感知的。这方面的一个例子是神经接口。它们毕竟直接捕捉到了明确的语义代码(无论是简单的神经提示还是更多的语义序列)。如果人工智能建立在固有的语义格式上,有转换格式的选项,包括转换为语言形式,那么我不认为处理信息和产生相关表达的困难是以人工智能为代价的。事实上,在声称困难之前,你至少应该直接面对它们。因此,当复杂性甚至没有潜在的定义时,人们怎么能对它下结论呢? 第一个困难是在意义的编码和语言的 "包装 "上。一个单一的不变的意义可以有条件的无限多的压缩和扩展形式,这使得它的提取成为一个异常困难的任务。语境是一个,包络是多态的。 处理意义的包络表示是主要任务。这就像试图通过装甲来穿透坦克一样)。你不能 "正面 "行事。 Vitaliy Maznev 2020.06.19 13:34 #130 Реter Konow: 第一个困难是意义的编码及其语言的 "包装"。一个不变的意义可以有条件的无限多的压缩和扩展形式,这使得它的提取成为一个异常困难的任务。语境是一个,包络是多态的。 处理意义的包络表示是主要任务。这就像试图通过装甲来穿透坦克一样)。你不能 "正面 "行事。 请举例说明。通常情况下,意义形式(根据我的经验)来自于某种背景。有一些人像通灵师一样。他们已经把它拆开了。而在他们的经验中,最初是有一些背景的,从这些背景中形成了数字(具体的意义单位)。你只是从错误的方面着手,这就是为什么潜在的困难突然出现,而在实践中可能根本不会出现。 1...67891011121314151617181920...74 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我自己也在想,到底什么是复杂的思想过程?
在人类中,那里的一切都很复杂。
人类的任何学习都只是在神经元之间形成稳定的联系;联系越强,经验越多--这里的一切都很简单。
这是更复杂的扭曲,扭曲的心理(认知)和外部世界的感知 - 他们引入错误和纠正以前的经验
而机器的一切都更简单--它不能扭曲数据,如果你假设机器可以被训练,那么训练将是不同的,但机器不能比较它以前的经验,并决定新的知识将是有用的或有害的,即总是有一个内部的我,将允许新的知识成为经验或不--它很可能是潜意识做到这一点。
我几乎无能为力--我自己还不明白。我只知道思维算法的存在,我们之所以有智慧,是因为它存在。
好吧,我想既然你表达了一种语言上的操作格式,那么在这里任务上的一些不和谐是合乎逻辑的。但人与人之间也会产生同样的不和谐。一个人说的话不一定是另一个人听到的。而它产生于语言学的组成部分。而这里至少有两个阶段的潜在失真:第一个阶段是说话者不经意地表达想法,第二个阶段是感知者对表达的处理。
现在让我们回到语义部分。在这个水平上,不可能有失真。在意义层面上,一个想法同样是既产生又被感知的。这方面的一个例子是神经接口。它们毕竟直接捕捉到了明确的语义代码(无论是简单的神经提示还是更多的语义序列)。如果人工智能建立在固有的语义格式上,有转换格式的选项,包括转换为语言形式,那么我不认为处理信息和产生相关表达的困难是以人工智能为代价的。
事实上,在声称困难之前,你至少应该直接面对它们。因此,当复杂性甚至没有潜在的定义时,人们怎么能对它下结论呢?
另一方面,机器不能比较它以前的经验,并决定新的知识是否有用,或者反过来说,是否有害。
是什么阻止了机器记录经验并从中得出结论?在我看来,许多项目就是这样运作的。以文本编辑器中的更正建议为例。这里不是有一些嵌入式的经验和推论吗,什么是正确的,什么可能是不正确的?
是什么阻止了机器记录经验并从中得出结论?在我看来,许多节目就是这样运作的。以文本编辑器中的更正建议为例。对于什么是正确的,什么可能是错误的,难道没有一些固有的经验和结论吗?
我在写--犯错是人的天性,甚至重新学习的过程也总是被扭曲。
如果你得出通常的结论--邻居是个酒鬼,每天晚上都喝酒,在一次雷雨中,雷电交加,邻居的房子被烧毁,结论是喝酒是有害的,可能有严重的后果))))。
车上的人比起闪电和喝酒?- 人们,在数量上,将能够比较自然现象和人类的弱点
顺便说一下,许多伟大而有才华的科学家都有不稳定的心理,然后是童年的创伤,然后是艰难的生活状况,作为对现实认知的变体错误,并帮助使他们有才华......但这并不确定!
机器会不会把闪电和醉酒作比较?
比较任何数据的困难是什么?特别是在某些数据经常重叠的情况下?可以1)最初从一个数据链接到另一个数据,2)为多个交叉点设置自动匹配的方向。比方说,一开始需要做很多调整。但总的来说,我个人认为这些东西已经实施了很长时间了(这可以作为一个主观的观点)。
比较一些数据的难度在哪里?特别是在某些数据经常重叠的情况下?可以1)最初从一个数据链接到另一个数据,2)为多个交叉点设置自动匹配的方向。比方说,一开始需要做很多调整。但总的来说,我个人认为这些东西在很久以前就已经实施了(这可以被视为一种主观的观点)。
这取决于人工智能的创造者,通常每个人都希望机器不犯错,同时机器必须像人一样思考,而人经常通过他的经验的棱镜思考,其中有一部分是错误。
而你写的东西早已实现,被称为专家系统
这取决于人工智能的创造者,通常每个人都希望机器不犯错,同时机器必须像人一样思考,而人经常通过他的经验的棱镜来思考,其中有一部分是错误。
这纯粹是一个偏好的问题。有可能把精神分裂症或精神分裂症和将其排除在外的数据都放入智力。而且可以初步确定观点的界限和原则。在这种情况下,人工智能将能够以他/她的方式与受访者进行专门的沟通。和一个傻瓜一样的傻瓜,和一个科学家一样的科学家。
好吧,我想既然你表达了一种语言上的操作格式,那么任务中的一些不协调在这里是合乎逻辑的。但人与人之间也会产生同样的不和谐。一个人说的话不一定是另一个人听到的。而它产生于语言学的组成部分。而这里至少有两个阶段的潜在失真:第一个阶段是说话者不经意地表达想法,第二个阶段是感知者对表达的处理。
现在让我们回到语义部分。在这个水平上,不可能有失真。在意义层面上,一个想法同样是既产生又被感知的。这方面的一个例子是神经接口。它们毕竟直接捕捉到了明确的语义代码(无论是简单的神经提示还是更多的语义序列)。如果人工智能建立在固有的语义格式上,有转换格式的选项,包括转换为语言形式,那么我不认为处理信息和产生相关表达的困难是以人工智能为代价的。
事实上,在声称困难之前,你至少应该直接面对它们。因此,当复杂性甚至没有潜在的定义时,人们怎么能对它下结论呢?
第一个困难是意义的编码及其语言的 "包装"。一个不变的意义可以有条件的无限多的压缩和扩展形式,这使得它的提取成为一个异常困难的任务。语境是一个,包络是多态的。 处理意义的包络表示是主要任务。这就像试图通过装甲来穿透坦克一样)。你不能 "正面 "行事。
请举例说明。通常情况下,意义形式(根据我的经验)来自于某种背景。有一些人像通灵师一样。他们已经把它拆开了。而在他们的经验中,最初是有一些背景的,从这些背景中形成了数字(具体的意义单位)。你只是从错误的方面着手,这就是为什么潜在的困难突然出现,而在实践中可能根本不会出现。