L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1334

[Supprimé]  
Aleksey Vyazmikin:

J'ai cherché MSUA, je ne sais pas à quel livre il se réfère spécifiquement, mais il n'est pas consultable sous ce nom. Si je comprends bien, cette chose est utilisée dans CatBoost.

--l2-feuille-reg

l2-régularisateur de feuilles

Coefficient de régularisation L2. Utilisé pour le calcul de la valeur des feuilles.

Toutes les valeurs positives sont autorisées.

3

CPU et GPU


Ou s'agit-il d'autre chose ? Cette méthode peut également être utilisée lors de la création de prédicteurs, par exemple pour décrire des tendances dans certains domaines.

Eh bien, c'est la régularisation par Tikhonov, et où est le rebondissement de la température ?

 
Maxim Dmitrievsky:

Eh bien, c'est la régularisation de Tikhonov, où est le sac de température ?

Mais le but semble être le même, non ? Je ne sais pas quel genre d'algorithme il y a là-dedans...

--Température d'ensachage

Définit les paramètres du bootstrap bayésien. Il est utilisé par défaut dans les modes classification et régression.

Utilisez le bootstrap bayésien pour attribuer des poids aléatoires aux objets.

Les poids sont échantillonnés à partir d'une distribution exponentielle si la valeur de ce paramètre est fixée à"1". Toutes les pondérations sont égales à 1 si la valeur de ce paramètre est fixée à"0".

Les valeurs possibles sont comprises dans la plage. Plus la valeur est élevée, plus l'ensachage est agressif.

1
[Supprimé]  
Aleksey Vyazmikin:

Mais le but semble être le même, non ? Je ne sais pas du tout quel est l'algorithme là-dedans...

--température d'ensachage

Définit les paramètres du bootstrap bayésien. Il est utilisé par défaut dans les modes classification et régression.

Utilisez le bootstrap bayésien pour attribuer des poids aléatoires aux objets.

Les poids sont échantillonnés à partir d'une distribution exponentielle si la valeur de ce paramètre est fixée à"1". Toutes les pondérations sont égales à 1 si la valeur de ce paramètre est fixée à"0".

Les valeurs possibles sont comprises dans la plage. Plus la valeur est élevée, plus l'ensachage est agressif.

1

c'est différent bien sûr.

C'est plutôt utile quand on a beaucoup de fonctionnalités, je suppose.

modifiera un peu le modèle, un réglage purement subtil, pas plus

les détails doivent être lus, en général c'est compréhensible mais pas jusqu'au bout

 

Au fait, j'ai trouvé les conférences dont j'ai parlé plus haut, avec des exemples en python, pour ceux qui veulent en savoir plus sur XGboost. Là, ou dans les prochains cours, la régularisation est également abordée.


 
Maxim Dmitrievsky:

C'est différent, bien sûr.

C'est plutôt utile quand il y a beaucoup de fonctionnalités, je suppose.

modifiera un peu le modèle, mais il s'agit d'un réglage purement subtil, sans plus.

Nous verrons quel type de variation - aujourd'hui ou demain seront les prochains 100k modèles, je déciderai d'appliquer ce paramètre dans le dépassement...

[Supprimé]  
Aleksey Vyazmikin:

Voyons ce que sera l'écart - aujourd'hui ou demain il y aura encore 100k modèles, je déciderai d'appliquer ce paramètre dans le dépassement...

Je ne sais pas s'il y a encore un manuel pour les paramètres, je lis d'autres choses

 
Maxim Dmitrievsky:

Il n'y a pas de manuel pour les paramètres ? Je n'utilise pas encore de katb, je lis d'autres choses.

Tout ce qu'il y a, ce sont des paramètres et une brève description, plus un célèbre clip avec des explications.

 
Aleksey Vyazmikin:

Si vous regardez attentivement, vous pouvez voir que les résultats financiers des modèles du même échantillon peuvent être très différents - de 5000 à 1500, c'est-à-dire de manière significative, ce qui signifie que Seed affecte effectivement les modèles. Je vais supposer que ce sont les modèles sélectionnés qui sont similaires (je vais vérifier), alors qu'ils ont des marges bénéficiaires légèrement différentes, mais presque tous les modèles sont plats au milieu, ce qui est surprenant - ils se trompent sur les mêmes marges (une anomalie dans les nouvelles données ?).

Vous avez une boîte avec une sorte de paysage très vallonné créé à l'intérieur. Nous lançons beaucoup de balles là-dedans (ce sont les sids), et notre travail consiste à nous assurer que la plupart des balles touchent les creux les plus profonds. Ce sera l'apprentissage, et c'est le principe selon lequel l'apprentissage en ME est structuré.

1. Si nous secouons légèrement la boîte, la plupart des balles ne pourront pas quitter les creux où elles ont été frappées à l'origine - l'apprentissage ne se fera pas.

2) Si nous secouons vigoureusement la boîte, certaines des balles ont une chance de frapper et de rester uniquement dans les creux les plus profonds, mais les creux moins profonds resteront non remplis car les balles en sortiront. L'apprentissage complet n'aura pas lieu.

3) Si nous secouons la boîte avec une force moyenne, seuls les creux les plus profonds et ceux du milieu seront remplis, mais les autres boules ne trouveront rien et continueront à rebondir au hasard dans la boîte. L'apprentissage est meilleur qu'en 1 et 2, mais pas non plus un as.

Les méthodes d'apprentissage ont toujours des paramètres - comment et quand exactement secouer la boîte pour obtenir l'apprentissage le plus efficace.

Si les différents "sids" ne s'additionnent pas, c'est que l'algorithme d'apprentissage est défectueux - vous l'avez secoué de la mauvaise façon, ou bien il n'y a pas de creux profonds auxquels s'accrocher dans notre boîte.

[Supprimé]  
Yuriy Asaulenko:

Vous avez une boîte, à l'intérieur de laquelle une sorte de paysage très vallonné est créé. Nous lançons beaucoup de balles là-dedans (ce sont les sids), et notre travail consiste à nous assurer que la plupart des balles touchent les creux les plus profonds. Ce sera l'apprentissage, et c'est le principe selon lequel l'apprentissage en ME est structuré.

1. Si nous secouons légèrement la boîte, la plupart des balles ne pourront pas quitter les creux où elles ont été frappées à l'origine - l'apprentissage ne se fera pas.

2) Si nous secouons vigoureusement la boîte, certaines des balles ont une chance de frapper et de rester uniquement dans les creux les plus profonds, mais les creux moins profonds resteront non remplis car les balles en sortiront. L'apprentissage complet n'aura pas lieu.

3) Si nous secouons la boîte avec une force moyenne, seuls les creux les plus profonds et ceux du milieu seront remplis, mais les autres boules ne trouveront rien et continueront à rebondir au hasard dans la boîte. L'apprentissage est meilleur qu'en 1 et 2, mais pas non plus un as.

Les méthodes d'apprentissage ont toujours des paramètres - comment et quand exactement secouer la boîte pour obtenir l'apprentissage le plus efficace.

Si les différents "sids" ne s'additionnent pas, c'est qu'il y a un problème avec l'algorithme d'apprentissage - vous l'avez secoué de la mauvaise façon, ou les creux profonds à saisir manquent dans notre boîte.

ou une boîte à chaussures)

Les balles sont une bonne explication.

et une bonne boîte se secoue.

 
Yuriy Asaulenko:

Vous avez une boîte, à l'intérieur de laquelle une sorte de paysage très vallonné est créé. Nous lançons beaucoup de balles là-dedans (ce sont les sids), et notre travail consiste à nous assurer que la plupart des balles touchent les creux les plus profonds. Ce sera l'apprentissage, et c'est le principe selon lequel l'apprentissage en ME est structuré.

1. Si nous secouons légèrement la boîte, la plupart des balles ne pourront pas quitter les creux où elles ont été frappées à l'origine - l'apprentissage ne se fera pas.

2) Si nous secouons vigoureusement la boîte, certaines des balles ont une chance de frapper et de rester uniquement dans les creux les plus profonds, mais les creux moins profonds resteront non remplis car les balles en sortiront. L'apprentissage complet n'aura pas lieu.

3) Si nous secouons la boîte avec une force moyenne, seuls les creux les plus profonds et ceux du milieu seront remplis, mais les autres boules ne trouveront rien et continueront à rebondir au hasard dans la boîte. L'apprentissage est meilleur qu'en 1 et 2, mais pas non plus un as.

Les méthodes d'apprentissage ont toujours des paramètres - comment et quand exactement secouer la boîte pour obtenir l'apprentissage le plus efficace.

Si les différents "sids" ne s'additionnent pas, c'est qu'il y a un problème avec l'algorithme d'apprentissage - vous l'avez secoué de la mauvaise façon, ou les creux profonds à saisir manquent dans notre boîte.

Bonne abstraction, si par creux profonds on entend des réponses avec une erreur minimale sur la validation, pour lesquelles il y a un arrêt d'apprentissage, alors cela peut aussi expliquer pourquoi il a obtenu de meilleurs résultats lorsque la taille de l'échantillon de validation a été augmentée, et cela pourrait être le résultat de l'augmentation formelle de la taille du terrain abstrait et donc du nombre de creux.