L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2253
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Disons que (tout dans le code Python n'a pas de sens pour moi). Où est la formation pour ce BAE ?
Est-ce que c'est dans pyTorch ?tout sur la torche
le codeur fonctionne, juste les résultats sont moins bons
en bref, le modèle de distance de Kullback-Leibner est très difficile à apprendre, c'est un problème décrit avec les codeurs de variation
en fait, l'algorithme "converge" après 2-3 époques et rien ne se passe ensuite
L'un des principaux inconvénients des auto-codeurs variationnels est que l'intégrale du terme de divergence KL n'a pas de solution analytique sous forme fermée, sauf pour une poignée de distributions. En outre, il n'est pas simple d'utiliser des distributions discrètes pour le code latentz z . En effet, la rétropropagation à travers des variables discrètes n'est généralement pas possible, ce qui rend le modèle difficile à entraîner efficacement. Une approche de cette démarche dans le cadre de la VAE a été présentéeici.
Avez-vous accès aux poids du réseau et la possibilité de les modifier ?
Bien sûr, mais je n'en ai pas besoin.
tous sur la torche.
le codeur fonctionne, mais les résultats sont moins bons.
en bref, le modèle de distance de Kullback-Leibner est très difficile à apprendre, c'est un problème décrit des codeurs de variation
en fait, l'algorithme "converge" après 2-3 époques et rien ne se passe ensuite
L'un des principaux inconvénients des auto-codeurs variationnels est que l'intégrale du terme de divergence KL n'a pas de solution analytique sous forme fermée, sauf pour une poignée de distributions. En outre, il n'est pas simple d'utiliser des distributions discrètes pour le code latentz z . En effet, la rétropropagation à travers des variables discrètes n'est généralement pas possible, ce qui rend le modèle difficile à entraîner efficacement. Une approche de cette démarche dans le cadre de la VAE a été présentéeici.
L'article parle d'autre chose. Il traite le cas où tous les prédicteurs sont discrets [0, 1]. Alors il y a un problème. Le réseau neuronal ne comprend pas les prédicteurs à variation nulle.
Votre cas, tel que je le comprends, est légèrement différent. Vous avez combiné les prédicteurs (continus) et la cible (matrice discrète ncol=3) dans l'entrée. Vous essayez d'obtenir une distribution qualitative de latents à partir de laquelle vous générez (restaurez) les latents d'entrée, y compris le latent cible, pratiquement sans formation. Est-ce que je vous ai bien compris ? Il ne réussira pas sur le plan qualitatif. L'article montre la voie de la solution. Pour convertir la cible discrète en continue en utilisant RBM, connecter avec d'autres prédicteurs et ensuite à VAE (formation !). Puis récupérer les exemples du VAE entraîné et restaurer la cible à nouveau avec RBM. C'est assez compliqué. Mais ça peut marcher.
Je vais essayer avec un AE ordinaire.
Bonne chance
L'article traite d'un sujet légèrement différent. Il traite le cas où tous les prédicteurs sont discrets [0, 1]. Alors il y a un problème. Le réseau neuronal ne comprend pas les prédicteurs à variation nulle.
Votre cas, tel que je le comprends, est légèrement différent. Vous avez combiné les prédicteurs (continus) et la cible (matrice discrète ncol=3) dans l'entrée. Vous essayez d'obtenir une distribution qualitative de latents à partir de laquelle vous générez (restaurez) les latents d'entrée, y compris le latent cible. Est-ce que je vous ai bien compris ? Il ne réussira pas sur le plan qualitatif. L'article montre la voie de la solution. Pour convertir la cible discrète en continue en utilisant RBM, connecter avec d'autres prédicteurs et ensuite à VAE (formation !). Puis récupérer les exemples du VAE entraîné et restaurer la cible à nouveau avec RBM. C'est assez compliqué. Mais ça peut marcher.
Je vais essayer avec un AE ordinaire.
Bonne chance
J'ai un CVAE. Sur les étiquettes de classe de l'encodeur et du décodeur (1,0), entre autres. Mais j'ai comparé VAE et CVAE, les résultats ne sont pas très différents (tout aussi médiocres).
Les cibles ne sont pas reconstruites, mais définies lors de la génération des caractéristiques. C'est-à-dire pour quelle cible générer les caractéristiques. Dans les exemples de génération d'images, c'est ce qui est fait, sauf qu'il y a plus de cibles, donc elles sont faites à chaud.
Je regardais les tableaux de comparaison VAE et GAN. Ce dernier est bien meilleur pour générer, j'ai envie de cracher sur les codeurs. Je n'ai pas envie de réinventer la roue.
Il pourrait être judicieux de convertir en continu, oui... mais ce n'est pas une certitude.
Il y a une petite chance que je fasse quelque chose de mal... mais j'ai déjà pratiqué sur des chatons auparavant).
Z.U. même dans l'exemple avec les chiffres, il n'apprend que 10 époques et ensuite l'erreur cesse de baisser
Les autoencodeurs sont plus adaptés à la compression des données à des dimensions inférieures ou à la génération de vecteurs sémantiques à partir de celles-ci. Où les GANs sont plus adaptés pour générer des données
https://medium.com/lis-computer-vision-blogs/gans-cgans-ae-aae-ave-caae-cave-2e7d23255b52
Je pense que les résultats sont flous à cause de la compression des données. Même si vous augmentez le nombre de neurones, il y aura toujours une certaine compression, un passage à une distribution différente. Les nouvelles données seront toujours brouillées, lissées, etc. Et je ne veux pas une tache, je veux des échantillons plausibles.
Vous pouvez obtenir exactement le même aspect givré en compressant les échantillons en ACP, puis en les convertissant en GMM, et enfin en décompressant à partir de l'ACP. Je l'ai fait, et c'est devenu si flou aussi.
Coder est PCA + GMM dans une seule bouteille, si l'on veut faire l'analogie.
Quelqu'un a-t-il essayé la méthode vectorielle correspondante ?
tu seras le premier
Vous pouvez obtenir exactement le même aspect flou en compressant les attributs PCA, puis en les convertissant en GMM, et enfin en les décompressant à partir de PCA. Je l'ai fait et j'ai eu le même problème.
Encoder, c'est PCA + GMM en un seul paquet, si vous voulez faire l'analogie.
Donc, laissez tous les composants PCA et vous n'aurez pas de taches, vous aurez une image nette.
Tu seras le premier.
Laissez donc tous les composants du PCA et vous n'aurez pas une tache, vous aurez une image claire.
Non, la conversion inverse ajoute beaucoup de bruit.
ou peut-être pas... mais ça y ressemble.ce ne sera pas le cas, la conversion inverse du nagénéré ajoute beaucoup de bruit
Je ne comprends pas, gmm ajoute déjà du bruit ou quoi ?
Je ne comprends pas, est-ce que le gmm ajoute déjà au bruit ? ou quoi ?
Je n'y ai pas prêté attention, c'était juste une supposition basée sur des recherches.
gmm vous offrira des fonctionnalités que vous n'avez jamais vues auparavant. Mais similaires à celles que vous avez vues. Dans une transformation inverse, ça pourrait avoir un certain effet, je suppose. Ajoutez du bruit.
C'est une supposition.