L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3166

 
СанСаныч Фоменко #:

Vous êtes tout simplement ennuyeux, gourou ! Je ne sais pas ce qu'il en est pour moi, mais vous, vous savez ce qu'il en est - regardez sur votre marché !

Vous reste-t-il autre chose qu'une perception douloureuse du monde qui vous entoure et une foi sacrée dans les paquets, ou bien la tirelire est-elle épuisée ? )

Chaque jour, je lis des articles sur des paquets dont vous ne savez rien.

Ou est-ce le jour de la marmotte ?
 
Forester #:

il est temps de mettre un terme à cette entreprise épique consistant à essayer de trouver des modèles dans des données aléatoires.

Oui, il est temps de mettre fin à cette entreprise épique de recherche de modèles dans des données aléatoires.

ou il est temps d'arrêter de penser à l'inertie et de regarder sobrement les résultats.

 
Forester #:

Les résultats de l'apprentissage par le corset ne sont souvent pas mauvais

Des années 10 à 21, un corset a été trouvé avec une fraction de 30% (30% de l'histoire aléatoire de ce site a participé à l'apprentissage), les autres années généralement pure OOS.

Dans le terminal, cela ressemble à ceci


 

Il existe de nombreuses méthodes pour déterminer le coreset. Voici quelques-unes des méthodes les plus courantes :

  • Sous-ensemble aléatoire : il suffit de sélectionner un sous-ensemble aléatoire de points dans l'ensemble de données original. Il s'agit de la méthode la plus simple pour obtenir un coreset, mais elle n'offre pas toujours la meilleure qualité.
  • Points de référence : sélectionner des points de l'ensemble de données original qui ont un impact important sur la prédiction de l'algorithme d'apprentissage automatique. Cette méthode est plus efficace pour obtenir un coreset qu'un sous-ensemble aléatoire, mais elle peut s'avérer plus complexe.
  • Regroupement : regrouper les points de l'ensemble de données original en fonction de leurs similitudes. Sélectionnez un point de chaque groupe comme coreset. Il s'agit d'un moyen efficace d'obtenir un sous-ensemble qui représente bien l'ensemble de données original, mais il peut être plus complexe.
  • Noyau hémométrique : sélectionnez les points de l'ensemble de données source à l'aide du noyau hémométrique. Il s'agit d'une méthode puissante d'obtention de sous-ensembles qui peut être utilisée pour améliorer la qualité des algorithmes d'apprentissage automatique.
  • Sous-ensemble aléatoire étendu : cette méthode sélectionne des points aléatoires dans l'ensemble de données original, mais avec une probabilité plus élevée, elle sélectionne les points qui ont un impact élevé sur la prédiction de l'algorithme d'apprentissage automatique. Il s'agit d'un moyen efficace d'obtenir un sous-ensemble de bonne qualité qui peut être utilisé pour diverses tâches d'apprentissage automatique.

Il est important de noter qu'il n'existe pas de méthode universelle pour obtenir un coreset adapté à toutes les tâches d'apprentissage automatique. Le choix de la méthode d'obtention du coreset dépend de la tâche spécifique et des ressources informatiques disponibles.

*Bard

 
Maxim Dmitrievsky #:

Les résultats de l'apprentissage par le corset ne sont souvent pas mauvais

Des années 10 à 21 un corset a été trouvé avec une fraction de 30% (30% de l'histoire aléatoire de ce site a participé à l'apprentissage), les années restantes généralement pure OOS

Dans le terminal, cela ressemble à ceci


Eh bien, il y a aussi des périodes de drawdowns qui durent de six mois à un an. Êtes-vous prêt à y faire face ? Surtout si le drawdown commence dès le lancement en réel ?

 
Forester #:

Eh bien, il y a aussi des périodes de baisse qui durent de six mois à un an. Êtes-vous prêt à y faire face ? Surtout si la baisse commence immédiatement lorsque vous commencez à travailler en réel ?

En général, diversifiez.

Ces graphiques seront rentables sur d'autres instruments. Et si la tendance générale de tous ces instruments est la même que celle du graphique présenté, la stabilité de l'investissement est garantie.

Il vous suffit de créer un portefeuille d'instruments qui créera le plus grand facteur de récupération
 
Forester #:

Eh bien, il y a aussi des périodes de baisse qui durent de six mois à un an. Êtes-vous prêt à y faire face ? Surtout si la baisse commence immédiatement lorsque vous commencez à travailler en réel ?

Je ne suis pas prêt à parier sur 20 ans :) il s'agit plutôt d'une étude de cas.

Je suis d'accord avec 10 ans de formation - 1 an d'OOS, d'accord.

mais il y a beaucoup de bruit, parfois le modèle rejette presque tous les échantillons comme inutiles, 3 transactions restent.

Il y a aussi des éléments de l'histoire qui ne sont jamais prédits normalement.

Dans l'ensemble, ce n'est pas une activité très gratifiante.

C'est comme si l'on faisait tourner le vieux récepteur et que l'on touchait accidentellement une onde avec du bruit.

 

Une fois de plus, je suis convaincu que pour faire des prévisions, il faut un modèle.

Le modèle élimine le superflu (le bruit) et laisse le nécessaire (le signal), si possible en amplifiant le nécessaire (le signal), et le modèle est plus déterministe, plus répétable dans les modèles....

à titre d'exemple.

prix haut-bas minutka.


Ensuite, nous construisons la simplification la plus simple du prix (créer un modèle).

Ensuite, nous éliminons les excès (amélioration du modèle) à l'aide d'un algorithme simple et connu de réduction de la dimensionnalité, le modèle devient plus reproductible.

et la dernière touche, peut-être décorative.


Je me demande comment le MO sera entraîné sur de telles données ?

Il s'agit d'un échantillon de test.

Confusion Matrix and Statistics

          Reference
Prediction    -1     1
        -1 24130  2780
        1   4478 23613
                                          
               Accuracy : 0.868           
                 95% CI : (0.8652, 0.8709)
    No Information Rate : 0.5201          
    P-Value [Acc > NIR] : < 2.2e-16       
                                          
                  Kappa : 0.7363          
                                          
 Mcnemar's Test P-Value : < 2.2e-16       
                                          
            Sensitivity : 0.8435          
            Specificity : 0.8947          
         Pos Pred Value : 0.8967          
         Neg Pred Value : 0.8406          
             Prevalence : 0.5201          
         Detection Rate : 0.4387          
   Detection Prevalence : 0.4893          
      Balanced Accuracy : 0.8691          
                                          
       'Positive' Class : -1  

Avez-vous déjà vu des chiffres comme ceux-là ?




 
СанСаныч Фоменко #:

Quel est le nom exact ? Ou s'agit-il d'un produit maison ?

J'utilise différents modèles "en bois" depuis de nombreuses années et je n'ai jamais rien vu de tel.

Que voulez-vous dire par "fait maison" ? Il existe une justification théorique, un bon article. Il existe un paquetage appelé RLTv3.2.6 qui fonctionne bien. Il faut faire attention à la version.

A propos d'ONNX pour les modèles en bois en Python. Voir le paquet skl2onnx.

Modèles scikit-learn supportés. Le dernier ensemble d'options pris en charge est le 15.

Nous vous souhaitons bonne chance

skl2onnx
  • 2023.05.09
  • pypi.org
Convert scikit-learn models to ONNX
 
Et le principal self-made man et self-made man est Breiman, parce qu'il n'a pas écrit en R. C'est un tel hack.
Raison: