L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2809

 
Valeriy Yastremskiy #:

La lib ne prend-elle pas en compte le type de données ? Le type de données est comme les données pour les calculs les moins chers. La même matrice devrait être conçue pour les calculs.

Je n'ai pas trouvé d'analogue de numpy pour R, et les matrices n'y sont pas très rapides et R lui-même consomme beaucoup de mémoire en raison de son paradigme.

Bien sûr, une librairie tierce peut être lente, qui la vérifierait ?

Je ne sais pas avec quoi comparer, donc je ne veux pas charger un jeu de données d'un gigaoctet pour comparer la vitesse.
 
Алексей Тарабанов #:

Pas du tout.

Et l'entraînement avec des renforcements ?
 
mytarmailS #:
Et l'apprentissage par renforcement ?

Le topkstarter a écrit un article sur DQN sur hubr sur R.

Il faut comprendre que l'apprentissage par renforcement n'est qu'une optimisation délicate.

Il peut fonctionner dans certains cas, mais pas forcément.

 
Maxim Dmitrievsky #:

Je n'arrive pas à trouver un analogue de numpy pour R..

..
Si la vitesse est nécessaire, alors une table de données, si un analogue rapide des dataframes, alors un tibble, si une grande quantité de données, alors une grande matrice.

 
mytarmailS #:
..
S'il s'agit de rapidité, il faut utiliser une table de données, s'il s'agit d'un analogue rapide des dataframes, il faut utiliser un tibble, s'il s'agit d'une grande quantité de données, il faut utiliser une grande matrice.

Je voulais alléger les souffrances d'Alexey ) C'est certainement plus facile dès le départ... mais quand même.

 
Maxim Dmitrievsky #:

Le topikstarter a écrit un article sur DQN sur le hub de R

il faut comprendre que l'apprentissage par renforcement n'est qu'une optimisation intelligemment conçue

Il peut fonctionner dans certains cas, il peut ne pas fonctionner.

Dans le contexte de la question de la mémoire...
Dans l'apprentissage par renforcement, vous pouvez mettre à jour la matrice d'action et la matrice d'évaluation de l'état ou de l'action pour toujours, c'est comme une mémoire avec une mise à jour constante. Mais je ne sais pas si j'ai raison.
 
mytarmailS #:
Eh bien, dans le contexte de la question de la mémoire.
Dans RL, vous pouvez éternellement mettre à jour la matrice d'action et la matrice d'évaluation des états ou de l'évaluation des actions, c'est comme une mémoire avec une mise à jour constante.... Mais je ne sais pas si j'ai raison.

Elle peut ajuster les états aux nouvelles données, mais c'est au niveau ou comme Mashka, c'est-à-dire avec un décalage.

Il est plus important de choisir une récompense, une cible, en fait. Et il lancera les transactions dans différentes directions et à chaque itération, il s'améliorera de plus en plus.

 
Maxim Dmitrievsky #:

Je voulais alléger les souffrances d'Alexey ) C'est certainement plus facile dès le départ... mais quand même

Si Alexey voulait réfléchir et écouter, cela prendrait 2 minutes avec mon script....
 
Maxim Dmitrievsky #:

il peut ajuster les états en fonction de nouvelles données, mais il s'agit toujours d'un niveau ou d'une méthode de type Mashka, c'est-à-dire d'une méthode décalée.

Il est plus important de sélectionner la récompense, c'est-à-dire la cible, par essence. Les offres seront lancées d'elles-mêmes dans différentes directions et, à chaque itération, elles s'amélioreront de plus en plus.

La mémoire est une NS avec des poids entraînés, vous l'entraînez à chaque étape, vous déplacez les poids un peu... pas beaucoup, c'est pourquoi il y a un décalage.

et on ne peut pas vraiment transférer cela au terminal.

 
Maxim Dmitrievsky #:

La mémoire est une NS avec des poids formés, vous la ré-entraînez à chaque étape, déplacez les poids un peu... pas beaucoup, donc le décalage .

.
Un réseau entraîné ou n'importe quelle OMA entraînée ou même Mashka est une mémoire. Oui, vous pouvez accepter cette analogie....

Mais lorsque vous "réentraînez" un réseau neuronal entraîné, vous changez les poids, vous oubliez le passé au profit du présent....

Ce n'est pas un réentraînement, c'est un réentraînement à chaque étape, comme Mashka dans la fenêtre coulissante, elle ne se souvient pas de ce qui se trouve à l'extérieur de la fenêtre coulissante, même si elle y était....
Raison: