L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 530

 
Maxim Dmitrievsky:

Supposons que nous ayons une BP plus ou moins stationnaire et que nous ayons sa décomposition en fréquence. Question : qu'est-ce qui est le mieux pour le modèle - 1 caractéristique ou 5, et pourquoi ?


Si vous disposez d'une telle décomposition, qu'elle est correcte et réversible, alors l'augmentation du nombre de caractéristiques du modèle n'est que bénéfique et accroît sa flexibilité, l'essentiel étant que les outils de MO ne fassent pas défaut, d'ailleurs il existe maintenant de nouveaux réseaux neuronaux avancés qui permettent à l'apprentissage profond d'atteindre des vitesses de plusieurs ordres de grandeur.
 
Ivan Negreshniy:
Eh bien, si vous disposez d'une telle décomposition et qu'elle est correcte et réversible, alors l'augmentation du nombre de caractéristiques du modèle n'est que bénéfique et accroît sa flexibilité, l'essentiel étant que les outils de MO ne soient pas compromis ; d'ailleurs, de nouveaux réseaux neuronaux progressifs qui permettent à l'apprentissage profond d'atteindre des vitesses de plusieurs ordres de grandeur sont maintenant apparus.

Bien + les éléments les plus bruyants retirés. Les ns, comment s'appellent-ils ? et le xgboost, ils en font aussi ? )

 


il y a de l'eau qui s'entraîne ..... à "s'en souvenir" et à fuir d'elle-même

 
Maxim Dmitrievsky:

Bien + les éléments les plus bruyants ont été supprimés. Et les ns, comment s'appellent-ils ? Et le xgboost, ils en font aussi ? )

Il s'agit d'une architecture n-network nouvelle et encore peu connue, sans aucune descente de gradient, tout est aussi primitivement simple que le cerveau du camarade susnommé).
 
Ivan Negreshniy:
Il s'agit d'une architecture n-réseau nouvelle et encore peu connue, sans aucune descente de gradient, tout est primitivement simple, comme le cerveau du camarade susnommé).

Où dois-je lire ? Je ne peux même pas trouver quelque chose à googler.

voici toutes les options https://tproger.ru/translations/neural-network-zoo-2/

Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
Разнообразие нейронных сетей. Часть вторая. Продвинутые конфигурации
  • 2016.10.13
  • tproger.ru
В первой части мы разобрались с базовыми, не очень сложными видами архитектур искусственных нейронных сетей. Настало время закончить начатое.
 
Maxim Dmitrievsky:

Où dois-je lire ? Je ne peux même pas trouver quelque chose à googler.

voici toutes les options https://tproger.ru/translations/neural-network-zoo-2/

il n'y a pas beaucoup d'écrits à ce sujet dans le domaine public, mais des recherches sont en cours https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra.

 
Yuriy Asaulenko:
Je suppose que ce sera encore mieux pendant la journée. À en juger par le modèle et les essais préliminaires de débogage. Mais il est trop tôt pour se prononcer, bien sûr.
Comment ça se passe ?
 
Renat Akhtyamov:
Comment ça se passe ?
Le vol est correct. Je vais affiner pour les transactions réelles, mais je n'ai pas encore le temps.
 
Ivan Negreshniy:

il n'y a pas beaucoup d'écrits à ce sujet dans le domaine public, mais des recherches sont en cours https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra.

Une sorte de description de conte de fées) Bien que, ça peut arriver. La mise en œuvre, semble-t-il, ne sera pas vue dans le domaine public.
 
Ivan Negreshniy:

il n'y a pas beaucoup d'écrits à ce sujet dans le domaine public, mais des recherches sont en cours https://creatime.me/MediaLibrary/Zanimatelno/NovayaEra.


ah, bien, il n'y a pas encore de bibliothèques... vous ne pouvez pas les écrire vous-même ;)

Raison: