交易中的机器学习:理论、模型、实践和算法交易 - 页 1271 1...126412651266126712681269127012711272127312741275127612771278...3399 新评论 Aleksey Vyazmikin 2019.01.25 23:59 #12701 我想到的是,正态分布只能在完成的过程中被期待(只是一个想法--没有检查过),而市场不是,所以所有关于其不均匀分布和非平稳性的假设都只是猜测,在市场存在时无法检验。 Aleksey Vyazmikin 2019.01.26 00:06 #12702 马克西姆-德米特里耶夫斯基。对于市场来说,它的培训方式完全相同,因为技术是相同的。忘掉 "影响 "吧,它并没有以你所设想的方式明确地传授。有策略集、最优策略等。(在RL中它们被称为政策)。如果我们有一个机器人创造者,我们可以问他一些问题,并对答案感到非常惊讶。所有这些RL都善于学习静止的环境影响,但如果你是在与另一个玩家比赛,那么裸露的RL在这里就不起作用。我没有深入研究过这个领域,可能搞错了。但有一个明显的与环境变化的互动,你不能从机器人的行为中看到任何期望,你根本看不到,有一个控制损害你和你的对手的概率,也有简单的误判,并朝着更少的负面结果的可能性行事,但它不是在游戏开始时由政策规定的概率 - 这是一个对变化的环境的影响。 Mihail Marchukajtes 2019.01.26 02:39 #12703 我一直在阅读你们的文章。发了几个帖子后,意识到理论上的问题一直在持续。但当你开始练习时,你会感到惊讶。建立模型和寻找新的解决方案与真正的交易相比不算什么,当你设置好一切,把它放在适当的位置,等待......。然后出现第一个信号,机器人就开始交易。但最糟糕的是当你分析这个交易的结果和它(机器人)的决定。它将继续赚钱,否则是时候改变它了。根据我的经验,我通常发现在优化之后,他做了一到三次亏损的交易,然后开始上涨。而在这样的时刻,你也开始大惊小怪地检查。它将上升或不上升。这意味着你在实际交易中面临这样的问题,而你在搜索和优化时从未想过。因此,你越早开始练习,你就会越快地面对一个执业交易员的问题。自然,I.M.O. Aleksey Vyazmikin 2019.01.26 02:57 #12704 Aleksey Vyazmikin 2019.01.26 03:50 #12705 我看了俄语的视频和评论,甚至惊讶于我对行为的想法非常正确--有资产评估,有结果的概率,有微观控制,有虚假的初始发展战略。非常强调的是,要准确地选择具有微观控制效率的单位来作战,从经济角度看显然是最有效的,另外其他的就不需要了,因为战斗很快就会胜利。一般来说,显然有许多组件,而且很可能不是一个神经元,不同的模型负责不同的组件。而且再加上开发商自己也说过,他们使用不同的基本策略模型,所以会有某种随机性的存在。 Mihail Marchukajtes 2019.01.26 08:53 #12706 大家好。既然我们已经确定这里的所有人都相当聪明,这不是讽刺,而是事实的陈述。ME领域并不缺乏智慧,所以我有一个问题要问社区。有人管理过UBUNTU吗?我说的是行政管理。问题是这样的。在优化过程中,这个过程的运行次数与系统中的核心一样多,并将其并行化。 问题:是否有可能强制2或4个核心为一个正在运行的不可分割的进程服务?嗯,这只是我,也许有人知道......。 Maxim Dmitrievsky 2019.01.26 09:45 #12707 谷歌今天在工作 https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/ 好吧,我昨天又陷入了一场徒劳的争论中 AlphaStar: Mastering the Real-Time Strategy Game StarCraft II | DeepMind 2019.01.24deepmind.com Download 11 replays Aleksey Vyazmikin 2019.01.26 10:07 #12708 马克西姆-德米特里耶夫斯基。谷歌今天在工作 https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/ 好吧,我昨天又陷入了一场徒劳的争论中 请注意,在对战斗结果的预期图上,正好有我所说的概率--情境性,它激活了神经元的反馈。你可以清楚地看到这个概率是如何随着双方的侦察和损失单位而变化的--也就是说,对力量的平衡和自己的期望不断进行重新计算。这显然不是一个经典的RL变体。 Maxim Dmitrievsky 2019.01.26 10:09 #12709 阿列克谢-维亚兹米 金。注意在战斗期望图上,正是有我所说的概率--激活神经元反馈的情境概率。你可以清楚地看到这个概率是如何随着双方的侦察和损失单位而变化的--也就是说,对力量的平衡和自己的期望不断进行重新计算。这显然不是一个经典的RL变体。 原来你这么笨拙,我以为这就是我想告诉你的:D 也请阅读链接中的纳什均衡,我昨天描述了1中1的算法,甚至没有阅读 重点是游戏没有概率估计,游戏有效率:))回去读你的帖子吧 显而易见的是经典的深层RL LOL,当你不在主题上的时候,不要再讲废话了 Aleksey Vyazmikin 2019.01.26 10:24 #12710 马克西姆-德米特里耶夫斯基。所以你很笨拙,我以为这就是我想向你解释的东西 :D 在链接中也读到了纳什均衡,我昨天描述了1中1的算法,甚至没有读到它。 重点是游戏没有概率估计,游戏有效率:))回去读你的帖子吧 你看到的只是一个典型的深沉的RL LOL,当你不在这个话题上的时候,不要再胡说八道了。 这是一个关于交易、自动交易系统和交易策略测试的论坛。 我一直对外汇市场的交易感兴趣,我相信这是教授机器学习的最佳方式。 Aleksey Vyazmikin, 2019.01.25 17:15 我的看法略有不同,在玩具中,传统上有 一个对每一方的数学评估,由许多因素组成--机器人的数量及其潜力、资产、金钱,而对手的目标是减少这个评估数字,以保持他的评估数字高于对手, 即在结果上花费更少的精力。这就形成了一个相互影响的系统,很明显,通过牺牲一个单位,你会使对手的估计资产价值减少的幅度大于该单位的估计价值,那么这就是正确的决定,如果不是,那就是不正确的决定。而在交易中,我们没有保证,只有概率,但在玩具中,有可以计算的数学保证。 我们无法影响局势,但在游戏中我们可以,包括自己创造有利的局面。 关于交易、自动交易系统和测试交易策略的论坛 交易中的机器学习:理论与实践(交易,不仅仅是交易)。 Aleksey Vyazmikin, 2019.01.26 00:06 如果我们有一个机器人创造者,我们可以问他一些问题,并且会对答案感到非常惊讶。所有这些RL都善于学习环境上的固定影响因素,但如果你是和另一个玩家玩,那么赤裸裸的RL在这里就不起作用。我没有深入研究过这个领域,可能搞错了。但有一个明显的与环境变化的互动,你从机器人的行为中看不到有什么期望,你根本看不到,有一个对你和你的对手造成伤害的概率的控制,有简单的误判,并朝着负面结果的较低概率行事,但 这不是游戏开始时政策给出的概率--这是对环境变化的影响。我不知道,也许你的大脑习惯于用书本上的概念来思考,但我发现用不那么崇高的事情来操作更容易,所以我用自己的话来描述。 1...126412651266126712681269127012711272127312741275127612771278...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
对于市场来说,它的培训方式完全相同,因为技术是相同的。忘掉 "影响 "吧,它并没有以你所设想的方式明确地传授。有策略集、最优策略等。(在RL中它们被称为政策)。
如果我们有一个机器人创造者,我们可以问他一些问题,并对答案感到非常惊讶。所有这些RL都善于学习静止的环境影响,但如果你是在与另一个玩家比赛,那么裸露的RL在这里就不起作用。我没有深入研究过这个领域,可能搞错了。但有一个明显的与环境变化的互动,你不能从机器人的行为中看到任何期望,你根本看不到,有一个控制损害你和你的对手的概率,也有简单的误判,并朝着更少的负面结果的可能性行事,但它不是在游戏开始时由政策规定的概率 - 这是一个对变化的环境的影响。
大家好。既然我们已经确定这里的所有人都相当聪明,这不是讽刺,而是事实的陈述。ME领域并不缺乏智慧,所以我有一个问题要问社区。有人管理过UBUNTU吗?我说的是行政管理。问题是这样的。在优化过程中,这个过程的运行次数与系统中的核心一样多,并将其并行化。
问题:是否有可能强制2或4个核心为一个正在运行的不可分割的进程服务?嗯,这只是我,也许有人知道......。
谷歌今天在工作
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
好吧,我昨天又陷入了一场徒劳的争论中
谷歌今天在工作
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
好吧,我昨天又陷入了一场徒劳的争论中
请注意,在对战斗结果的预期图上,正好有我所说的概率--情境性,它激活了神经元的反馈。你可以清楚地看到这个概率是如何随着双方的侦察和损失单位而变化的--也就是说,对力量的平衡和自己的期望不断进行重新计算。这显然不是一个经典的RL变体。
注意在战斗期望图上,正是有我所说的概率--激活神经元反馈的情境概率。你可以清楚地看到这个概率是如何随着双方的侦察和损失单位而变化的--也就是说,对力量的平衡和自己的期望不断进行重新计算。这显然不是一个经典的RL变体。
原来你这么笨拙,我以为这就是我想告诉你的:D
也请阅读链接中的纳什均衡,我昨天描述了1中1的算法,甚至没有阅读
重点是游戏没有概率估计,游戏有效率:))回去读你的帖子吧
显而易见的是经典的深层RL LOL,当你不在主题上的时候,不要再讲废话了
所以你很笨拙,我以为这就是我想向你解释的东西 :D
在链接中也读到了纳什均衡,我昨天描述了1中1的算法,甚至没有读到它。
重点是游戏没有概率估计,游戏有效率:))回去读你的帖子吧
你看到的只是一个典型的深沉的RL LOL,当你不在这个话题上的时候,不要再胡说八道了。
这是一个关于交易、自动交易系统和交易策略测试的论坛。
我一直对外汇市场的交易感兴趣,我相信这是教授机器学习的最佳方式。
Aleksey Vyazmikin, 2019.01.25 17:15
我的看法略有不同,在玩具中,传统上有 一个对每一方的数学评估,由许多因素组成--机器人的数量及其潜力、资产、金钱,而对手的目标是减少这个评估数字,以保持他的评估数字高于对手, 即在结果上花费更少的精力。这就形成了一个相互影响的系统,很明显,通过牺牲一个单位,你会使对手的估计资产价值减少的幅度大于该单位的估计价值,那么这就是正确的决定,如果不是,那就是不正确的决定。而在交易中,我们没有保证,只有概率,但在玩具中,有可以计算的数学保证。
我们无法影响局势,但在游戏中我们可以,包括自己创造有利的局面。关于交易、自动交易系统和测试交易策略的论坛
交易中的机器学习:理论与实践(交易,不仅仅是交易)。
Aleksey Vyazmikin, 2019.01.26 00:06
如果我们有一个机器人创造者,我们可以问他一些问题,并且会对答案感到非常惊讶。所有这些RL都善于学习环境上的固定影响因素,但如果你是和另一个玩家玩,那么赤裸裸的RL在这里就不起作用。我没有深入研究过这个领域,可能搞错了。但有一个明显的与环境变化的互动,你从机器人的行为中看不到有什么期望,你根本看不到,有一个对你和你的对手造成伤害的概率的控制,有简单的误判,并朝着负面结果的较低概率行事,但 这不是游戏开始时政策给出的概率--这是对环境变化的影响。