L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1271

 
L'idée m'est venue qu'une distribution normale ne peut être attendue que sur des processus achevés (juste une idée - je n'ai pas vérifié), et que le marché ne l'est pas, donc toutes les hypothèses sur sa distribution inégale et sa non-stationnarité ne sont que des suppositions, qui ne peuvent être testées tant que le marché existe.
 
Maxim Dmitrievsky:

Pour le marché, il est formé exactement de la même manière, car la technologie est la même. Oubliez l'"influence", elle n'est pas explicitement enseignée de la manière dont vous l'envisagez. Il existe des ensembles de stratégies, des stratégies optimales, etc. (en RL, on les appelle des politiques).

Si nous avions un créateur de bot, nous pourrions lui poser un certain nombre de questions et être très surpris des réponses. Tous ces RL sont bons pour apprendre les influences environnementales stationnaires, mais si vous jouez contre un autre joueur, alors le RL nu ne fonctionnera pas ici. Je n'ai pas étudié ce domaine en profondeur, je peux me tromper. Mais il y a une interaction claire avec l'environnement changeant, vous ne pouvez pas voir le comportement des bots, il n'y a pas d'attente de quoi que ce soit, vous ne pouvez pas le voir du tout, il y a un contrôle de la probabilité de causer des dommages à la fois à vous et à votre adversaire, et il y a des erreurs de calcul simplement et agir vers moins de possibilité de résultat négatif, mais ce n'est pas la probabilité donnée par la politique au début du jeu - c'est l'influence sur l'environnement changeant.

 
Je vous ai lu. Quelques posts et je me suis rendu compte que la théorie n'en finit plus. Mais vous serez surpris lorsque vous commencerez à pratiquer. Construire des modèles et rechercher de nouvelles solutions n'est rien comparé au trading réel, lorsque vous configurez tout, mettez tout en place et attendez....... Ensuite, le premier signal apparaît et le robot ouvre une transaction. Mais le pire, c'est lorsque vous analysez le résultat de cette transaction et sa décision (celle du robot). Il continuera à gagner de l'argent ou il est temps de le changer. D'après mon expérience, je constate généralement qu'après l'optimisation, il fait une ou trois transactions perdantes, puis commence à remonter. Et dans ces moments-là, vous commencez à vous inquiéter et à vérifier aussi. Il augmentera ou non. Cela signifie que vous êtes confronté à des problèmes dans le trading réel auxquels vous n'avez jamais pensé lors de vos recherches et optimisations. Donc, plus tôt vous commencerez à pratiquer, plus vite vous serez confronté aux problèmes d'un trader pratiquant. Naturellement, I.M.O.
 
 
J'ai regardé la vidéo et le commentaire en russe, et j'ai même été surpris de constater que j'avais une idée très correcte du comportement - il y a l'évaluation des actifs, il y a la probabilité du résultat, il y a le micro-contrôle, et il y a les stratégies initiales fallacieuses de développement. L'accent est mis sur le fait de sélectionner exactement les unités à combattre avec l'efficacité du micro-contrôle et apparemment les plus efficaces d'un point de vue économique, et plus les autres ne sont pas nécessaires, car les batailles sont gagnées rapidement. En général, il est clair qu'il y a un certain nombre de composants, et très probablement pas un seul neurone, et différents modèles responsables de différents composants. De plus, les développeurs eux-mêmes ont déclaré qu'ils utilisaient différents modèles de stratégies de base, il y aurait donc une certaine forme d'aléatoire.
 

Bonjour à tous. Puisque nous avons établi que TOUS ici sont assez intelligents et que ce n'est pas un sarcasme mais une déclaration de fait. Le domaine de la ME ne manque pas d'intelligence, j'ai donc une question pour la communauté. Quelqu'un a-t-il déjà administré UBUNTU ? Je parle de l'administration. Le problème est le suivant. Pendant l'optimisation, ce processus est exécuté autant de fois qu'il y a de cœurs dans le système et est parallélisé.

Question : est-il possible de forcer 2 ou 4 cœurs à servir un processus non divisible en cours d'exécution ? Eh bien, ce n'est que moi... peut-être que quelqu'un le sait...

[Supprimé]  

Google travaille aujourd'hui

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

OK, je me suis encore lancé dans une discussion futile hier.

 
Maxim Dmitrievsky:

Google travaille aujourd'hui

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

OK, je me suis encore lancé dans une discussion futile hier.

Notez que sur le graphique de l'attente de l'issue de la bataille, il y a exactement la probabilité dont je parlais - situationnelle, qui active la rétroaction des neurones. Vous pouvez clairement voir comment cette probabilité change au fur et à mesure que les deux camps font des repérages et perdent des unités - c'est-à-dire qu'il y a un recalcul constant de l'équilibre des forces et des attentes de chacun. Il ne s'agit clairement pas d'une variante classique de RL.


[Supprimé]  
Aleksey Vyazmikin:

Notez que sur le graphique de l'espérance de combat, il y a exactement la probabilité dont je parlais - la probabilité situationnelle qui active la rétroaction des neurones. Vous pouvez clairement voir comment cette probabilité change au fur et à mesure que les deux camps font des repérages et perdent des unités - c'est-à-dire qu'il y a un recalcul constant de l'équilibre des forces et des attentes de chacun. Il ne s'agit clairement pas d'une variante classique de RL.


Tu es tellement maladroit que j'ai cru que c'était ce que j'essayais de te dire :D

Lisez aussi le lien sur l'équilibre de Nash, j'ai décrit l'algorithme 1 en 1 hier, sans même le lire.

le point est que le jeu n'a pas d'estimation de probabilité et le jeu a une EFFICACITE :)) revenir en arrière et lire votre post

L'évidence est le classique RL profond LOL, arrête de dire des bêtises quand tu n'es pas sur le sujet.

 
Maxim Dmitrievsky:

Vous êtes tellement maladroit que j'ai cru que c'était ce que j'essayais de vous expliquer :D

lire l'équilibre de Nash dans le lien aussi, j'ai décrit l'algorithme 1 en 1 hier, sans même le lire

le jeu n'a pas de cote de probabilité, le jeu a une Influence :))) relisez votre post

La seule chose que tu vois est un classique LOL profond de RL, arrête de dire des bêtises quand tu n'es pas sur le sujet.

Il s'agit d'un forum pour le trading, les systèmes de trading automatisés et les tests de stratégies de trading.

J'ai toujours été intéressé par le trading sur le marché du Forex et je suis convaincu que c'est la meilleure façon d'enseigner l'apprentissage automatique.

Aleksey Vyazmikin, 2019.01.25 17:15

Je vois les choses un peu différemment, le jouet comporte conventionnellement une évaluation mathématique de chaque camp composée de nombreux facteurs - le nombre de bots et leur potentiel, les actifs, l'argent, et l'objectif de l'adversaire de diminuer ce chiffre d'évaluation afin de garder son chiffre d'évaluation plus élevé que celui de l'adversaire, c'est-à-dire de dépenser moins d'énergie pour le résultat. Il en résulte un système d'influence mutuelle, où il est clair qu'en sacrifiant une unité, vous diminuerez la valeur estimée de l'actif de l'adversaire de plus que la valeur estimée de l'unité, alors c'est la bonne décision, et sinon, ce n'est pas la bonne. Et dans le commerce, nous n'avons aucune garantie, seulement des probabilités, mais dans un jouet, il existe des garanties mathématiques qui peuvent être calculées.

Nous ne pouvons pas influencer la situation, mais dans le jeu, nous le pouvons, y compris en créant nous-mêmes des situations avantageuses.

Forum sur le trading, les systèmes de trading automatisé et les tests de stratégies de trading

L'apprentissage automatique dans le trading : théorie et pratique (le trading et pas seulement)

Aleksey Vyazmikin, 2019.01.26 00:06

Si nous avions un créateur de bot, nous pourrions lui poser un certain nombre de questions et nous serions très surpris des réponses. Tous ces RLs sont bons pour apprendre les facteurs d'influence stationnaires sur l'environnement, mais si vous jouez contre un autre joueur, alors le RL nu ne fonctionnera pas ici. Je n'ai pas étudié ce domaine en profondeur, je peux me tromper. Mais il y a une interaction claire avec l'environnement changeant, vous ne pouvez pas voir dans le comportement des robots qu'il y a une attente de quoi que ce soit, vous ne pouvez pas le voir du tout, il y a un contrôle de la probabilité de causer des dommages à vous et à l'adversaire, et il y a des erreurs de calcul simplement et en agissant vers une probabilité plus faible d'un résultat négatif, mais ce n'est pas la probabilité fixée par la politique au début du jeu - c'est l'effet sur l'environnement changeant.


Je ne sais pas, peut-être que votre cerveau est habitué à penser avec des concepts tirés de livres, mais je trouve plus facile d'opérer avec des sujets moins nobles, alors je l'ai décrit avec mes propres mots.