L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 494
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Lire les réseaux neuronaux de Heikin et la théorie de Bishop en anglais - pas de traduction, mais cela semble être en cours.
C'est simple. Des échanges aléatoires en entrée, et des résultats en sortie. La méthode de Monte Carlo est appelée, et elle n'est pas très rapide en soi. Et la systématisation est une tâche du système national.
Y a-t-il un nom spécial pour le NS ? Comme un réseau neuronal de recuit stochastique de type inconnu, avec ou sans professeur, et optimisant les entrées plutôt que les sorties :)) Je vais lire quelques livres,
Heikin "NS Complete Course Second Edition" est disponible en russe.
Y a-t-il un nom spécial pour la NS elle-même ? Comme un réseau neuronal de recuit stochastique d'apprentissage imprécis avec ou sans professeur, et optimisant les entrées plutôt que les sorties :))) Je vais lire des livres,
Haikin "NS Complete Course Second Edition" est disponible en russe
Heikin est, Bishop n'est pas disponible en russe.
NS est le MLP habituel, l'entraînement est le BP habituel, mais avec des réajustements manuels réguliers en cours de route. Si aucun réajustement de ce type n'est effectué, ou si l'on se contente de mélanger l'échantillon, il apprend très rapidement, mais ne fonctionne bien que sur des séquences d'apprentissage.
Heikin est là, Bishop n'est pas disponible en russe.
Le NS est le MLP habituel, l'entraînement est le BP habituel, mais avec des réajustements manuels réguliers au fur et à mesure. Si vous ne faites pas de tels réajustements ou si vous vous contentez de mélanger l'échantillon, il apprend très vite, mais ne fonctionne bien (voire parfaitement) que sur la séquence d'apprentissage.
Pour l'instant, je me contenterai du travail de Haykin. Je me suis toujours limité aux articles et aux descriptions de modèles, les livres sont trop superflus (il y a donc assez de place pour les ventes).
Et celui de Haykin est un vieux truc :) pour l'instant, je m'en contenterai, je me suis toujours limité aux articles et aux descriptions de modèles, les livres contiennent beaucoup de choses inutiles (afin d'avoir un volume à vendre).
Fausse déclaration. Les forêts et les boosts ne sont pas différents des NS en matière d'extrapolation.
Tous les articles que je trouve disent la même chose
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
L'extrapolation est difficile pour les arbres ! - Les statistiques de Peter
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest incapable de prédire en dehors des données d'entraînement
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
La régression de la forêt aléatoire ne prédit pas une valeur supérieure aux données d'entraînement.
Tous les articles que je trouve disent la même chose
https://habrahabr.ru/company/ods/blog/322534/
http://alglib.sources.ru/dataanalysis/decisionforest.php
L'extrapolation est difficile pour les arbres ! - Les statistiques de Peter
http://ellisp.github.io/blog/2016/12/10/extrapolation
Random Forest incapable de prédire en dehors des données d'entraînement
https://www.quantopian.com/posts/random-forest-unable-to-predict-outside-of-training-data
La régression de la forêt aléatoire ne prédit pas une valeur supérieure aux données d'entraînement.
Les bêtises sont écrites par des personnes non instruites. Ils n'ont jamais entendu parler de surentraînement, n'ont aucune idée du datamining, n'ont jamais entendu parler des prédicteurs de bruit et ne sont pas bons en estimation de modèle. Ils sont juste une sorte de snobs immatures qui jouent à des jeux intellectuels.
Les bêtises sont écrites par des personnes non instruites. Ils n'ont jamais entendu parler de réentraînement, n'ont aucun concept de datamining, n'ont jamais entendu parler de prédicteurs de bruit et ne sont pas doués pour l'estimation de modèles. C'est juste le genre de snobs surannés qui jouent à des jeux d'esprit.
Qu'est-ce que tout ça a à voir avec l'extrapolation...
ceux qui ont écrit RF dans la bibliothèque alglib sont aussi des gens sans éducation ?
et les blogueurs r sont boiteux aussi, apparemment
https://www.r-bloggers.com/extrapolation-is-tough-for-trees/
Tout le monde est un perdant sauf la FA.
que seuls les FAs ont appris.
;))
Tout le monde est un perdant sauf la FA.
que seuls les FAs ont appris.
;))
C'est ainsi que les gens utilisent la RF sans en comprendre les principes, et ensuite ils disent que ça ne marche pas. D'après le dernier article, il est évident que la RF ne peut pas extrapoler, donc elle ne devrait fonctionner qu'avec des données familières.
Hélas, mais ils ont tort et ce n'est pas seulement normal pour les "ignorants" et les snobs, souvenez-vous de Minsky et de son avis autorisé concernant la "futilité" des perseptrons multicouches))).
Je ne parle pas des articles sur hubra, c'est la même chose que les ordures sur les forums, 99,9% de publicité naychpop et carrément du trash 0,1% de pensées sensées sous forme implicite "entre les lignes".l'homme a donné un exemple sur R, à quel endroit a-t-il fait une erreur ? malheureusement je n'utilise pas R, mais je peux même le reproduire moi-même