L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1848

 
mytarmailS:

Ce n'est pas une idée à laquelle il faut penser, c'est une idée à lire !

la classification des textes - pour comprendre ce qui est fait, comment cela est fait et par quels algorithmes

Analyse de la sanité : pour déterminer le discours "positif/négatif".

Cela a été mis en œuvre dans des paquets prêts à l'emploi depuis 5-10 ans, vous pouvez commencer à les utiliser et vous n'avez pas à réinventer la roue.

Oui, je suis d'accord pour dire que l'idée est de lire.
Oui, il existe des algorithmes pour la classification de la parole.
L'idée était de réfléchir à la manière de mettre tout cela en place.

Si vous connaissez des paquets prêts à l'emploi, veuillez m'indiquer leur nom.

 
Romain:

Oui, je suis d'accord pour dire que l'idée est de lire.
Oui, il existe des algorithmes pour la classification de la parole.
Je voulais réfléchir à la façon de mettre tout ça ensemble.

Si vous connaissez des paquets, veuillez me communiquer leur nom.

Il y en a des centaines, que puis-je vous dire ?


fouille de textes

analyse de santiments

 
mytarmailS:

Il y en a des centaines, que puis-je vous dire ?

fouille de textes

analyse de santiments

Voici au moins les noms de ce par quoi commencer et ce qu'il faut rechercher. Merci.

 
Mihail Marchukajtes:

Mais l'indicateur qui construit le même semble normal, mais lorsqu'il est transmis au conseiller expert, il est décalé d'une barre et le résultat est un désordre complet. Si je peux le changer, je vous en serais reconnaissant.

Et comment se fait-il que l'IA ne soit pas collectée à l'ouverture d'une barre pour la dernière barre ? Si c'est le cas, le changement est logique.

 
elibrarius:
Merci. J'avais l'habitude d'utiliser la précision, en l'appelant (pour moi) Précision pour la classe. Je vais l'appeler par des termes communs maintenant).
Et en général, la précision peut être considérée comme une mesure de base lorsqu'il y a une classe d'attente. Les erreurs de précision sont des pertes directes dues à une mauvaise classification.
Et le rappel signifie des profits perdus, c'est-à-dire que nous avons attendu au lieu d'agir.
L'essentiel est de maximiser le F1, qui trouvera la meilleure valeur avec un minimum d'erreurs de prédiction et un minimum de profits manqués.

Si nous parlons d'apprentissage par boosting(CatBoost), la précision augmente généralement très rapidement, mais le rappel le fait lentement, et pendant que le rappel augmente, la précision diminue. Ce que je veux dire, c'est que pendant la formation, il est bon de contrôler deux indicateurs séparément, par exemple en fixant des limites 80<Précision>60 et Rappel>50 et d'essayer d'arrêter la formation dans ces limites. Il est plus difficile de le faire avec des coefficients différents, comme le F1. C'est dommage que les développeurs n'aient pas prévu cette possibilité, et je n'ai pas encore trouvé comment tailler les arbres du modèle fini.

Une autre idée est de diviser l'échantillon en sections de 10 et d'entraîner 10 modèles par section, de voir comment le modèle se comporte dans chaque section et de tailler les arbres des modèles, de calculer la moyenne des taux de ré-entraînement, puis de rassembler tous les modèles d'une manière ou d'une autre. Cela permettra d'éviter l'ajustement excessif des modèles et de n'utiliser que les données présentant des tendances cohérentes.

 
Aleksey Vyazmikin:

Et comment se fait-il que l'OI ne soit pas collecté à l'ouverture de la barre pour la dernière barre ? Si c'est le cas, le changement est logique.

Non, il est écrit chaque tique
 
Mihail Marchukajtes:
Non, il est écrit chaque tique

Il n'est pas clair comment vous demandez les données de l'indicateur dans l'EA, s'il est construit correctement sur le graphique. Avez-vous vérifié comment l'indicateur est construit dans le mode visuel du testeur de stratégie ?

 
Aleksey Vyazmikin:

Une autre idée est de diviser l'échantillon en sections de 10 et d'entraîner 10 modèles dans chaque section, de voir le comportement du modèle dans chaque section et d'élaguer les arbres du modèle, de faire la moyenne des taux de surentraînement et ensuite de rassembler tous les modèles d'une manière ou d'une autre. Ainsi, le surentraînement du modèle sera nettoyé et seules les données présentant des tendances stables seront utilisées.

J'ai aussi eu une idée similaire, mais pour l'instant je suis occupé par autre chose. J'espère pouvoir l'expérimenter bientôt.
Elle présente également un inconvénient : le modèle apprend sur une surface de données dix fois plus petite. Je pense que son caractère généralisable en sera diminué.

 
Aleksey Vyazmikin:

Il n'est pas clair comment vous demandez les données de l'indicateur dans l'EA, s'il est construit correctement sur le graphique. Avez-vous vérifié la construction de l'indicateur dans le mode visuel du testeur de stratégie ?

Il est standard dans Icon... Mais il lit les données du fichier à chaque tick, et l'indicateur les lit lorsqu'une nouvelle barre apparaît et il s'avère qu'il prend une valeur erronée.
 
Romain:

Au moins, voici les noms à partir desquels il faut commencer et ce qu'il faut rechercher. Merci.

Ce ne sont pas des noms, ce sont des liens vers tout ce dont vous avez besoin, prêts à l'emploi... et plus encore.

Raison: