L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1967

 
mytarmailS:

Je ne sais pas... Je l'ai lu quatre fois et je ne comprends toujours pas, peut-être que le professeur est un remplaçant ?

+ il y a plus de vote en cours des couches.

Eh bien oui, la mémoire dans LQV sous la forme des dernières sorties des neurones de LQV, mais comme je comprends la mémoire est seulement un pas en arrière ...

Que pensez-vous de cette fantastique analogie avec la bouilloire et le café ? C'est le graal...


Il ne vous a rien dit ?

Je me demande où ils enseignent ces trucs. C'est comme la cybernétique, la robotique, et...

Les DataSynthiens sont juste des physiciens éducateurs à l'institut technologique).


==============================================================

il y a aussi la LVQ dynamique - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Détails

dlvq : Les données d'entrée doivent être normalisées pour utiliser DLVQ.

Apprentissage DLVQ : pour chaque classe, un vecteur moyen (prototype) est calculé et stocké dans un module caché (nouvellement créé). Le réseau est ensuite utilisé pour classer chaque motif en utilisant le prototype le plus proche. Si un motif est mal classé dans la classe y au lieu de la classe x, le prototype classe y est éloigné du motif et le prototype classe x est rapproché du motif.Cette procédure est répétée de manière itérative jusqu'à ce qu'il n'y ait plus de changements dans la classification. Ensuite, de nouveaux prototypes sont introduits dans le réseau pour chaque classe en tant que nouvelles unités cachées et initialisés par le vecteur moyen des modèles mal classés dans cette classe.

Architecture du réseau : le réseau n'a qu'une seule couche cachée contenant une unité pour chaque prototype. Les prototypes/unités cachées sont également appelés vecteurs du livre de codes. Étant donné que le SNNS génère des unités automatiquement et ne nécessite pas de spécification préalable du nombre d'unités, la procédure du SNNS est appelée LVQ dynamique .

Les fonctions d'initialisation, d'apprentissage et de mise à jour par défaut sont les seules adaptées à ce type de réseau. Les trois paramètres de la fonction d'apprentissage définissent deux taux d'apprentissage (pour les cas correctement / incorrectement classés) et le nombre de cycles pour lesquels le réseau est entraîné avant de calculer les vecteurs moyens.

Références

Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.



=========================================================


Mec, j'ai lu cette LVQ, c'est juste comme Kohonen (SOM) mais avec un professeur.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=La%20Apprentissage%20Vector%20Quantization%20algorithme,ces%20instances%20devraient%20s'apparenter%20à.

Ce n'est pas LVQ, c'est VQ.

ne répond pas

Probablement en raison des connexions éparses, tous les neurones ne sont pas toujours actifs, de sorte que la mémoire peut être plus longue à retenir... En outre, il existe une mémoire associative (quels ensembles de caractéristiques appartiennent à quel groupe). Le livre de code est ainsi appelé.

Tout vient de la théorie du contrôle, ils l'enseignent probablement à l'université. L'article original date de 2015 et provient de certains Chinois. Je n'y ai pas accès. Celui-ci est probablement déjà une redite.

 
Maxim Dmitrievsky:

Ce n'est pas LVQ, c'est VQ.

ne répond pas.

Probablement en raison des connexions éparses, tous les neurones ne sont pas toujours actifs, de sorte que la mémoire peut être plus longue à retenir... En outre, il existe une mémoire associative (quels ensembles de caractéristiques appartiennent à quel groupe). Le livre de code est ainsi appelé.

Tout vient de la théorie du contrôle, ils l'enseignent probablement à l'université. L'article original date de 2015 et provient de certains Chinois. Je n'y ai pas accès. Il est fort probable que celui-ci soit déjà un remaniement.

Il s'avère que la quantification vectorielle est d'abord effectuée sur des données nues, puis avec les résultats pris en compte, et le résultat est plus précis. Au moins un filtre pour un résultat négatif apparaît. Des ensembles de caractéristiques pour différents clusters, c'est comme diviser une rangée en différents segments stables.

 
Valeriy Yastremskiy:

Il s'avère que la quantification des vecteurs s'effectue d'abord sur les données brutes, puis sur le résultat, ce qui rend ce dernier plus précis. Au moins le filtre pour le résultat négatif apparaît. Des ensembles de caractéristiques à différents clusters, c'est comme diviser une rangée en différentes sections stables.

Il est difficile d'imaginer d'où vient la mémoire longue. Par exemple, à l'itération précédente, le dernier neurone a produit un zéro, ajoutez-le au vecteur d'entrée du premier neurone à l'itération suivante. Itération. Il est à + 1 dimension, c'est-à-dire que nous plaçons les caractéristiques dans un nouvel espace et obtenons un état conditionnel plus complexe qui dépend de l'action précédente. Le premier neurone a fonctionné et a envoyé un vecteur unitaire au dernier neurone. Ce dernier a renvoyé 0 ou 1 au premier. Supposons qu'il n'y ait que 2 clusters. Où la mémoire va-t-elle plus loin qu'un pas en arrière ?

Supposons qu'il existe un troisième neurone qui prend une autre valeur +1. Un état conditionnel encore plus complexe. Et ainsi, par ordre croissant, la mémoire est stockée... difficile à imaginer :)

 
Maxim Dmitrievsky:

......... mémoire stockée... difficile à imaginer :)

encore plus difficile pour moi )

====


réseau associatif

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


C'est la même chose que le regroupement, n'est-ce pas ? Et l'image associative est le prototype d'un regroupement.

 
mytarmailS:

encore plus difficile pour moi )

Dans la couche 2, vous pouvez également ajouter de la mémoire sous forme de liens de récurrence, mais cela fonctionne sans eux. Donc la mémoire est dans la couche 1 après tout.

 
mytarmailS:

c'est encore plus difficile pour moi)

====


réseau associatif

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/assoz


C'est la même chose que le clustering, n'est-ce pas ? Et l'image associative est un prototype de cluster.

oui, mais il n'a pas de mémoire des actions précédentes de l'agent, c'est différent.

Je vais relire le classeur, puis je vais m'occuper du code.

 
Maxim Dmitrievsky:

Oui, mais il n'y a pas de mémoire des actions précédentes de l'agent, c'est différent.

Je vais relire le classeur, puis j'irai fouiller dans le code.

voyons voir, réfléchissons-y )

l'action d'un agent est une image, un modèle (cluster)

la séquence d'actions (clusters) est la mémoire


une action d'un agent ou quoi que ce soit peut être représenté comme une séquence de clusters

mais un motif comme "verser du café" mais "le café doit déjà être infusé".


peut être représenté comme un modèle de transitions


 
mytarmailS:

voyons, réfléchissons-y.)

l'action d'un agent est une image, un modèle (cluster)

une séquence d'actions (clusters) est la mémoire

une action d'agent ou autre peut être représentée comme une séquence de clusters

Pas exactement. L'action précédente d'un agent + l'état de l'environnement (ensemble de caractéristiques) est un modèle (état conditionnel). L'action précédente et les caractéristiques sont regroupées en un seul vecteur.

Mais dans les neurones, il n'y a pas d'information explicite sur la séquence des motifs transmis, seulement par des signaux de sortie économes. Et là, un seul motif (actuel) a été traité. C'est-à-dire que les états conditionnels plus complexes sont codés par un groupe de neurones d'une manière ou d'une autre.

 

Maxim Dmitrievsky:

Les actions et les fiches précédentes sont regroupées dans un seul vecteur.

Mais dans les neurones, il n'y a pas d'information explicite sur la séquence, seulement à travers les signaux de sortie de sauvegarde. Et là, un seul motif a été traité.

Eh bien, il peut être réduit à un seul vecteur, par le même umap. J'ai compressé 2k jetons de cette façon)

 
mytarmailS:

Eh bien, il peut être consolidé en un seul vecteur, par le même umap. C'est comme ça que j'ai compressé 2k jetons)

c'est ce que fait cette couche.

Raison: