L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2788

 
Maxim Dmitrievsky #:
Vous obtenez de nombreuses incohérences, notamment en ce qui concerne la suppression des valeurs aberrantes. Celles-ci représentent généralement 10 % de la taille de l'ensemble de données, selon différents calculs. Supprimé et quoi, et comment le modèle s'échange-t-il lorsque la valeur aberrante est détectée ? )
Même situation avec les transformations.
Si vous effectuez un prétraitement classique, les résultats sont pires que sur les données brutes.
Ou bien des améliorations aléatoires des mesures sont considérées comme systémiques.

Rien ne peut être fait comme ça, après avoir lu des manuels et des articles - il s'agit d'une étape distincte qui s'appelle l'apprentissage. Sans connaissance systématique des statistiques, il n'y a rien à faire au sein du ministère de l'environnement.

Il est toujours nécessaire de faire, d'essayer d'atteindre l'objectif.

Si nous prenons un objectif intermédiaire - la capacité prédictive maximale du prédicteur, alors.. :

1. Il est obligatoire de supprimer les valeurs aberrantes. Si les valeurs supérieures à 0,5 % du quantile sont considérées comme des valeurs aberrantes, les valeurs aberrantes sont inférieures à 1 %. Soit dit en passant, il s'agit du pourcentage de stops déclenchés à l'avenir. Nous développons nous-mêmes le système de trading, nous avons des limites numériques.

2. Le prétraitement est obligatoire, mais là encore, tout dépend du type de prétraitement. Si nous parlons de la capacité prédictive du prédicteur, alors vous ne pouvez pas corriger les pentes qui augmentent la capacité prédictive. Voici un exemple. En général, nous prenons un algorithme de prétraitement et évaluons son effet sur le pouvoir prédictif. La réponse est ici.

3. Gardez toujours à l'esprit la signification de MO, qui, dans mon esprit, consiste à rechercher certains modèles. De toute évidence, dans le domaine de la RF, quel est le nombre de modèles contenus dans 5 000 barres, par exemple ? Ou à partir de quelle valeur de fenêtre l'augmentation du nombre de modèles ne réduit-elle pas l'erreur ? Ou pour une fenêtre fixe, à partir de quelle valeur du nombre de motifs l'erreur cesse-t-elle de diminuer ?

Réponses pour RF.

1. cela n'a pas de sens d'augmenter la fenêtre au-dessus de 1500 barres.

2) La relation entre l'erreur et le nombre de motifs (arbres) est clairement visible sur le graphique :

Minimum 50. Généralement de 100 à 200. Le graphique ne change pas lorsque l'on augmente la fenêtre jusqu'à 5000.

Il faut toujours formuler clairement l'objectif et le critère pour l'atteindre. Tout le reste n'est que bla-bla.

 
СанСаныч Фоменко #:

Rien ne peut être fait comme ça, après avoir lu des manuels et des articles - il s'agit d'une étape distincte qui s'appelle l'étude. Sans une connaissance systématique des statistiques, il n'y a rien à faire au sein du ministère de l'environnement.

Il est toujours nécessaire de faire, d'essayer d'atteindre l'objectif.

Si nous prenons un objectif intermédiaire - la capacité prédictive maximale du prédicteur, alors.. :

1. Il est obligatoire de supprimer les valeurs aberrantes. Si les valeurs supérieures à 0,5 % du quantile sont considérées comme des valeurs aberrantes, les valeurs aberrantes sont inférieures à 1 %. D'ailleurs, il s'agit du pourcentage de stops déclenchés à l'avenir. Nous développons le système de trading lui-même, nous avons des contraintes numériques.

2. Le prétraitement est obligatoire, mais là encore, tout dépend du type de prétraitement. Si nous parlons de la capacité prédictive du prédicteur, alors vous ne pouvez pas corriger les pentes, qui augmentent la capacité prédictive. Voici un exemple. En général, nous prenons un algorithme de prétraitement et évaluons son influence sur le pouvoir prédictif. Voici la réponse.

3. Gardez toujours à l'esprit la signification de MO, qui, dans mon esprit, consiste à rechercher certains modèles. De toute évidence, en RF, quel est le nombre de modèles contenus dans 5 000 barres, par exemple ? Ou à partir de quelle valeur de fenêtre l'augmentation du nombre de motifs ne réduit-elle pas l'erreur ? Ou pour une fenêtre fixe, à partir de quelle valeur du nombre de motifs l'erreur cesse-t-elle de diminuer ?

Réponses pour RF.

1. Il est absurde d'augmenter la fenêtre au-delà de 1500 mesures.

2. La relation entre l'erreur et le nombre de motifs (arbres) est clairement visible sur le graphique :

Minimum 50. Généralement de 100 à 200. Le graphique ne change pas lorsque la fenêtre est augmentée jusqu'à 5000.

Il est toujours nécessaire de formuler clairement l'objectif et le critère pour atteindre l'objectif. Tout le reste n'est que bla-bla.

J'ai détecté des émissions à travers la forêt d'isolement, je les ai supprimées, le résultat de l'entraînement n'a pas changé. J'ai essayé de m'entraîner sur les émissions - aucun changement. J'ai eu l'impression que le modèle (catbust) ne se soucie pas des émissions. Comme si elles étaient bien reconnues par la recherche d'anomalies, mais que leur suppression n'était pas nécessaire.
 
Maxim Dmitrievsky #:
J'ai détecté des émissions à travers la forêt d'isolement, je les ai supprimées et le résultat de l'entraînement n'a pas changé. J'ai essayé de m'entraîner sur les émissions - aucun résultat. J'ai l'impression que le modèle (catbust) ne se préoccupe pas des émissions. Comme si elles étaient bien reconnues par la recherche d'anomalies, mais que leur suppression n'était pas nécessaire.

Les valeurs aberrantes affectent fortement le pouvoir de prédiction, et la stabilité du pouvoir de prédiction affecte la stabilité de l'erreur de prédiction.

Quant au modèle lui-même, il dépend du modèle, en particulier si l'échantillon d'entraînement est obtenu à partir de l'échantillon.

 
Aleksey Nikolayev #:

L'idée d'un arbre de décision local m'est venue à l'esprit. Il s'agit d'un analogue du KNN ou de la régression locale (également potentiellement adapté à la non-stationnarité). L'idée est de diviser en boîtes uniquement la boîte contenant le point d'intérêt (jusqu'à au moins un nombre donné de points K) et de ne pas se soucier du reste des boîtes. Cette méthode peut être meilleure que le KNN ou la régression locale si les frontières entre les classes sont nettes et que le point est proche d'une telle frontière.

Je me demande si cette approche a un sens.

Il me semble que vous comparez des choses incomparables - la mise à l'échelle est la mise à l'échelle (même multidimensionnelle si vous le souhaitez, tant que la distance vous convient), et le filtrage du bruit - vous pouvez le faire avec des dérivées (1ère et 2ème).-- Vous pouvez aussi passer aux matrices vectorielles de manière totalement non supervisée, au lieu de prouver l'importance des différences entre les classes (étiquetées) à l'aide des matrices de covariance des données étiquetées et d'exploiter ensuite l'importance confirmée pour la classification de l'objet qui vous intéresse...

les hypothèses, messieurs, les hypothèses ne sont pas une façon de calculer, mais un sujet de preuve (ou de réfutation)....

 
JeeyCi #:

il me semble que vous comparez des choses incomparables - la mise à l'échelle est la mise à l'échelle (même multidimensionnelle si vous le souhaitez, tant que la distance vous convient), et le filtrage du bruit - vous pouvez le faire avec des dérivées (1ère et 2ème).-- Vous pouvez aussi passer aux matrices vectorielles de manière totalement non supervisée, au lieu de prouver l'importance des différences entre les classes (étiquetées) à l'aide des matrices de covariance des données étiquetées et d'exploiter ensuite l'importance confirmée pour la classification de l'objet qui vous intéresse...

les hypothèses, messieurs, les hypothèses ne sont pas une façon de calculer, mais un sujet de preuve (ou de réfutation)....

Je n'ai rien compris, mais c'est très intéressant.

 
СанСаныч Фоменко #:

Les valeurs aberrantes affectent fortement la capacité de prédiction, et la stabilité de la capacité de prédiction influence la stabilité de l'erreur de prédiction.

Quant au modèle lui-même, il dépend du modèle, en particulier si l'échantillon d'entraînement est obtenu à partir de l'échantillon.

Quelle est la valeur R2 entre votre méthode de détermination de la capacité prédictive et l'importance des caractéristiques de la forêt aléatoire ?

 

Bonjour à tous.
J'ai une question : est-il réaliste d'utiliser un hachage comme prédicteur ?

Par exemple
LlLCmywDpe8dj_j8t8DWwoMjaIhTLnOedRh6KET7R7k

où la cible est
1.04.

Est-il judicieux de le convertir d'une manière ou d'une autre en un nombre ou sous une autre forme ?

 
Roman #:

Bonjour à tous.
Une question s'est posée : est-il réaliste d'utiliser un hachage comme prédicteur ?

Comme ceci
LlCmywDpe8dj_j8t8DWwoMjaIhTLnOedRh6KET7R7k

où la cible
1.04

Cela a-t-il un sens de le convertir d'une manière ou d'une autre en un nombre ou sous une autre forme ?

Il s'agit donc d'un nombre en notation 256 éléments (si la chaîne est codée en ANSI). Étant donné que les hachages ont une longueur fixe, vous pouvez toujours les représenter comme des vecteurs de nombres compris entre 0 et 255.

Voulez-vous craquer le bitcoin ?)

 
Aleksey Nikolayev #:

Il s'agit donc d'un nombre dans un enregistrement de 256 éléments (si la chaîne est codée en ANSI). Comme les hachages ont une longueur fixe, ils peuvent également être représentés comme des vecteurs de nombres compris entre 0 et 255.

Voulez-vous craquer le bitcoin ?)

Comme letype de chaîne vous détend et vous fait oublier l'encodage ANSI.
Non, pas le bitcoin, les sweepstakes en ligne :))))


 
Evgeni Gavrilovi #:

Quelle est la valeur R2 entre votre méthode de détermination de la capacité prédictive et de l'importance des caractéristiques de la forêt aléatoire ?

Expliqué à plusieurs reprises.

Raison: