L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 494

 
Yuriy Asaulenko:

Lire les réseaux neuronaux de Heikin et la théorie de Bishop en anglais - pas de traduction, mais cela semble être en cours.

C'est simple. Des échanges aléatoires en entrée, et des résultats en sortie. La méthode de Monte Carlo est appelée, et elle n'est pas très rapide en soi. Et la systématisation est une tâche du système national.


Y a-t-il un nom spécial pour le NS ? Comme un réseau neuronal de recuit stochastique de type inconnu, avec ou sans professeur, et optimisant les entrées plutôt que les sorties :)) Je vais lire quelques livres,

Heikin "NS Complete Course Second Edition" est disponible en russe.

 
Maxim Dmitrievsky:

Y a-t-il un nom spécial pour la NS elle-même ? Comme un réseau neuronal de recuit stochastique d'apprentissage imprécis avec ou sans professeur, et optimisant les entrées plutôt que les sorties :))) Je vais lire des livres,

Haikin "NS Complete Course Second Edition" est disponible en russe

Heikin est, Bishop n'est pas disponible en russe.

NS est le MLP habituel, l'entraînement est le BP habituel, mais avec des réajustements manuels réguliers en cours de route. Si aucun réajustement de ce type n'est effectué, ou si l'on se contente de mélanger l'échantillon, il apprend très rapidement, mais ne fonctionne bien que sur des séquences d'apprentissage.

 
Yuriy Asaulenko:

Heikin est là, Bishop n'est pas disponible en russe.

Le NS est le MLP habituel, l'entraînement est le BP habituel, mais avec des réajustements manuels réguliers au fur et à mesure. Si vous ne faites pas de tels réajustements ou si vous vous contentez de mélanger l'échantillon, il apprend très vite, mais ne fonctionne bien (voire parfaitement) que sur la séquence d'apprentissage.


Pour l'instant, je me contenterai du travail de Haykin. Je me suis toujours limité aux articles et aux descriptions de modèles, les livres sont trop superflus (il y a donc assez de place pour les ventes).

 
Maxim Dmitrievsky:

Et celui de Haykin est un vieux truc :) pour l'instant, je m'en contenterai, je me suis toujours limité aux articles et aux descriptions de modèles, les livres contiennent beaucoup de choses inutiles (afin d'avoir un volume à vendre).

Eh bien, je ne dirais pas ça. La théorie ne vieillit pas. Mais il existe une compréhension plus profonde du sujet. Les articles, bien sûr, mais sans théorie générale ne sont pas très bien compris, et juste perçus superficiellement et sans critique - beaucoup de bêtises qu'ils écrivent).
 
Alyosha:

Fausse déclaration. Les forêts et les boosts ne sont pas différents des NS en matière d'extrapolation.


  • Le modèle ne peut qu'interpoler, mais pas extrapoler (il en va de même pour la forêt et le boosting sur les arbres). En d'autres termes, l'arbre de décision effectue une prédiction constante pour les objets de l'espace des caractéristiques en dehors du parallélépipède couvrant tous les objets de l'échantillon d'apprentissage. Dans notre exemple avec les boules jaunes et bleues, cela signifie que le modèle donne la même prédiction pour toutes les boules dont la coordonnée est > 19 ou < 0.

Tous les articles que je trouve disent la même chose

https://habrahabr.ru/company/ods/blog/322534/


  • comme les arbres de décision, l'algorithme est totalement incapable d'extrapoler
 
Maxim Dmitrievsky:

  • Le modèle ne peut qu'interpoler, mais pas extrapoler (il en va de même pour le boosting des forêts et des arbres). En d'autres termes, l'arbre de décision effectue une prédiction constante pour les objets de l'espace des caractéristiques en dehors du parallélépipède couvrant tous les objets de l'échantillon d'apprentissage. Dans notre exemple avec les boules jaunes et bleues, cela signifie que le modèle donne la même prédiction pour toutes les boules dont la coordonnée est > 19 ou < 0.

Tous les articles que je trouve disent la même chose

https://habrahabr.ru/company/ods/blog/322534/


  • comme les arbres de décision, l'algorithme est totalement incapable d'extrapoler

Les bêtises sont écrites par des personnes non instruites. Ils n'ont jamais entendu parler de surentraînement, n'ont aucune idée du datamining, n'ont jamais entendu parler des prédicteurs de bruit et ne sont pas bons en estimation de modèle. Ils sont juste une sorte de snobs immatures qui jouent à des jeux intellectuels.

 
SanSanych Fomenko:

Les bêtises sont écrites par des personnes non instruites. Ils n'ont jamais entendu parler de réentraînement, n'ont aucun concept de datamining, n'ont jamais entendu parler de prédicteurs de bruit et ne sont pas doués pour l'estimation de modèles. C'est juste le genre de snobs surannés qui jouent à des jeux d'esprit.


Qu'est-ce que tout ça a à voir avec l'extrapolation...

ceux qui ont écrit RF dans la bibliothèque alglib sont aussi des gens sans éducation ?

et les blogueurs r sont boiteux aussi, apparemment

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

Tout le monde est un perdant sauf la FA.

que seuls les FAs ont appris.

;))

 
Oleg avtomat:

Tout le monde est un perdant sauf la FA.

que seuls les FAs ont appris.

;))


C'est ainsi que les gens utilisent la RF sans en comprendre les principes, et ensuite ils disent que ça ne marche pas. D'après le dernier article, il est évident que la RF ne peut pas extrapoler, donc elle ne devrait fonctionner qu'avec des données familières.

 
Aliosha:

Hélas, mais ils ont tort et ce n'est pas seulement normal pour les "ignorants" et les snobs, souvenez-vous de Minsky et de son avis autorisé concernant la "futilité" des perseptrons multicouches))).

Je ne parle pas des articles sur hubra, c'est la même chose que les ordures sur les forums, 99,9% de publicité naychpop et carrément du trash 0,1% de pensées sensées sous forme implicite "entre les lignes".

l'homme a donné un exemple sur R, à quel endroit a-t-il fait une erreur ? malheureusement je n'utilise pas R, mais je peux même le reproduire moi-même

Raison: