L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 607

[Supprimé]  
Vizard_:

Parlons de l'apprentissage du DAO, ugh, TAU)))


Non, non... il n'y a que des DAO ici...

 
Vizard_:

Package learningCurve, R, courbe d'apprentissage.

Comment aident-ils à calculer le nombre de neurones ?
 
elibrarius:
Comment aident-ils à calculer le nombre de neurones ?

si l'erreur cesse de chuter brusquement, arrêtez d'enseigner :)

 
Maxim Dmitrievsky:

Si l'erreur cesse de chuter radicalement, arrêtez d'apprendre :)

Nous ne pouvons entraîner que le réseau dont la structure est déjà définie et rechercher les erreurs. Il faut tout d'abord déterminer la structure, c'est-à-dire le nombre de neurones sur lesquels on peut ensuite rechercher les erreurs.

En d'autres termes, la question est de savoir comment la courbe d'apprentissage avant la formation aide à déterminer le nombre optimal de neurones.

Ou par toute autre méthode.

 
elibrarius:

Nous ne pouvons entraîner qu'un réseau avec une structure déjà donnée et rechercher les erreurs. Tout d'abord, nous devons définir la structure, c'est-à-dire le nombre de neurones sur lesquels nous pouvons observer les erreurs.

En d'autres termes, la question est de savoir comment la courbe d'apprentissage avant l'apprentissage aide à déterminer le nombre optimal de neurones.

Ou par toute autre méthode.


Il s'avère que le nombre n'a pas d'importance... l'apprentissage s'arrête lorsque l'erreur cesse de diminuer et aucun réapprentissage n'a lieu. Donc il peut y avoir un grand nombre de neurones

si je comprends bien.

[Supprimé]  
Vizard_:

Parlons de la cognition DAO, ugh, TAU)))


La relativité de la cognition est due à de nombreuses raisons, parmi lesquelles il convient de mentionner tout d'abord les différentes dispositions de la conscience à l'acte de percevoir et de comprendre le même phénomène, ce qui conduit à des résultats différents de la cognition (réactions, prises de décision, actions, etc.).

 
Maxim Dmitrievsky:

Il s'avère que le nombre n'a pas d'importance... la formation s'arrête simplement lorsque l'erreur a cessé de diminuer et aucun recyclage n'a lieu. Donc il pourrait y avoir un grand nombre de neurones

si je comprends bien.

C'est un arrêt précoce. Je ne vois aucun lien avec le paquet learningCurve.

Dans la méthode d'arrêt précoce, la formation s'arrête lorsque la complexité du réseau atteint une valeur optimale. Ce moment est estimé par le comportement temporel de l'erreur de validation.

Mais elle a aussi ses faiblesses : un réseau trop grand arrêtera son apprentissage prématurément, lorsque les non-linéarités n'auront pas encore eu le temps de se manifester pleinement. C'est-à-dire que cette technique présente des difficultés pour trouver des solutions faiblement non linéaires.

Vizard_:

Erreurs (2pc).

Veuillez écrire plus en détail. Comment learningCurve aide-t-il à déterminer le nombre de neurones pour le réseau ?

 

Je ne peux rien dire sur la régularisation, je ne l'ai pas expérimentée.

Mais un arrêt précoce conduit à un surajustement. Elle fonctionne en quelque sorte pour la reconnaissance d'images en raison de la grande similitude des données de test et d'entraînement, ce qui explique qu'elle soit souvent recommandée dans les livres et les articles. Mais il ne convient pas pour le forex.


Je conseille d'apprendre l'évaluation croisée k-fold. J'ai vu plusieurs façons différentes, celle-ci fonctionne bien -

Utilisons cinq fautes. Disons qu'il y a 1000 lignes dans un tableau de formation.

1) Entraîner le modèle sur les rangées 201-1000. S'il s'agit d'un neurone, pas de rupture précoce, il suffit d'enseigner au neurone un certain nombre d'époques suffisant pour atteindre une grande précision. Prévoir les lignes 1 à 200.
2) Reconditionnez le modèle, maintenant sur les lignes 1-200 ainsi que 401-1000, utilisez les mêmes paramètres de modèle et généralement tous les réglages identiques. Prédisez les rangs 201 à 400.
3) Reconditionnez le modèle, maintenant sur les lignes 1-400 ainsi que 601-1000, utilisez les mêmes paramètres de modèle et généralement tous les réglages identiques. Prédisez les lignes 401 à 600.
4) Réentraînez le modèle, maintenant sur les lignes 1-600 ainsi que 801-1000, utilisez les mêmes paramètres de modèle et généralement tous les réglages identiques. Prédire les rangs 601-800.
5) Réentraînez le modèle, maintenant sur les rangs 1-800, utilisez les mêmes paramètres de modèle et généralement tous les réglages identiques. Prédire les rangées 801-1000.

Nous avons donc cinq modèles créés avec un algorithme d'apprentissage identique et des paramètres identiques. Et cinq prédictions, chacune faite sur des données inconnues du modèle.
Cinq tableaux de prédictions sont ajoutés les uns aux autres pour obtenir un long tableau de longueur 1000, et évalués par rapport aux données réelles avec la fonction R2. Cela permettra d'évaluer notre modèle, notre méthode de formation et tout le reste.
Ensuite, nous choisissons les paramètres du modèle (fonction d'activation, nombre de couches et leur taille, etc.) à chaque fois que nous effectuons toutes ces étapes (former 5 modèles, prédire 5 morceaux uniques pour chaque modèle, les fusionner, R2), en obtenant une estimation de plus en plus précise.

Pour prédire les nouvelles données dans une transaction réelle - nous prédisons chacun des cinq modèles, et pour les cinq résultats nous trouvons la moyenne, ce sera la prédiction finale sur les nouvelles données.

p.s. Le nombre de fautes est mieux de prendre quelques dizaines, dans cet exemple il y en a seulement cinq pour la simplicité de la description.

[Supprimé]  

Un type particulier d'obtention, de détection des catégories est l'opération par analogie du type suivant : cause + condition → conséquence, ici la conséquence ne vient que lorsque la cause et la condition sont combinées. En appliquant cette opération aux catégories de parties et de tout, on trouve la catégorie de structure qui joue le rôle de conditions nécessaires : parties + structure → tout, c'est-à-dire qu'un tout ne peut être obtenu sans une condition structurelle correspondante, une montagne ne peut être obtenue à partir d'un nombre suffisant de grains de sable alors qu'ils sont juste posés sur le plan. La condition préalable à l'obtention d'un système à partir des éléments est les relations et les connexions entre les éléments : éléments + connexions → système. L'importance de la forme a été mise en évidence lorsqu'une simple aiguille à coudre a été transformée en aiguille de machine à coudre, pour laquelle le chas a été déplacé vers la pointe de l'aiguille. Pour obtenir une nouvelle qualité de l'aiguille, il fallait changer la configuration : forme + configuration → qualité. Cet exemple montre en même temps le fonctionnement de la loi du développement des opposés d'un système - un changement de qualité ne nécessite pas nécessairement un changement de quantité.

 

Le nombre optimal d'éléments cachés est un problème spécifique qui doit être résolu par l'expérience. Mais en règle générale, plus il y a de neurones cachés, plus le risque de sur-apprentissage est élevé. Dans ce cas, le système n'apprend pas les capacités des données, mais se souvient des modèles eux-mêmes et du bruit qu'ils contiennent. Un tel réseau fonctionne bien dans un échantillon, mais mal en dehors de l'échantillon. Comment éviter le sur-apprentissage ? Il existe deux méthodes populaires : l'arrêt précoce et la régularisation. L'auteur préfère la sienne, liée à la recherche globale.

Résumons cette partie de l'histoire. La meilleure approche pour dimensionner le réseau est de suivre le principe d'Occam. En d'autres termes, pour deux modèles ayant les mêmes performances, le modèle ayant le moins de paramètres généralisera avec plus de succès. Cela ne signifie pas qu'il faille nécessairement choisir un modèle simple afin d'améliorer les performances. L'inverse est vrai : un grand nombre de neurones cachés et de couches ne garantit pas la supériorité. On accorde aujourd'hui trop d'attention aux grands réseaux, et pas assez aux principes de leur conception. Plus grand n'est pas toujours mieux.


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...