L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3386
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je vais essayer depuis Khabarovsk...
Tout modèle est une certaine somme de schémas, exagérément, un schéma peut être étiqueté comme un TS.
Imaginons qu'un modèle se compose de 100 TS.
Il se peut que, dans le modèle n° 1, 100 CT aient conclu une transaction.
Il se peut que dans le modèle n° 2, un CT ait conclu 100 accords et que les 99 autres n'aient conclu aucun accord.
Comment calculer les statistiques pour chaque CT?
Si le modèle est tiré des règles, cela peut être fait facilement et clairement.
Si le modèle estneuronal ?
Le problème n'est pas le nombre de fois où le modèle est utilisé.
Le problème est que le même modèle (arbre ?) sur les mêmes données prédit une étiquette dans certains cas et une étiquette différente dans d'autres cas. C'est ce qu'on appelle l'erreur de classification. Il n'y a pas de prédicteurs, du moins chez nous, dont les valeurs peuvent être classées strictement en classes. Et tous les problèmes liés aux feuilles, aux arbres et autres sont dérivés des valeurs des prédicteurs.
Si l'erreur a déjà cessé de diminuer ou est égale à zéro, vous pouvez diviser les exemples restants en motifs en fonction d'une certaine mesure de proximité :) Le regroupement, par exemple. Et compter combien il en reste. Et même en écrivant une condition moyenne pour chaque motif/cluster (prendre les centroïdes des clusters), vous obtiendrez une règle dans la sortie.
C'est possible, mais où est la garantie que le partitionnement est correct, conformément au partitionnement interne des neurones ?
Si vous voulez faire des regroupements, ce ne sont pas les exemples, c'est la dernière couche de neurones.
Non, juste des exemples. On ne peut pas élaborer des règles à partir des dernières couches de neurones.
Laissez-moi créer un échantillon de données et laissez chacun appliquer sa méthodologie.
Je n'ai pas essayé cette approche, je réfléchis simplement à haute voix sur la façon d'obtenir des règles à partir de n'importe quel modèle. Vous pourrez jouer avec plus tard.
Il semble que les articles ne soient plus traduits ou qu'ils n'aient pas le temps. La section anglaise est déjà pleine d'articles sur python et onnx :)) Et un article sur R est apparu.
En général, les articles sont inutiles en termes de TC. A peu près la même chose que sur Medium, ils écrivent pour écrire.
Il s'agit maintenant d'identifier toutes les règles linéairement liées et de les supprimer en tant que règles redondantes.
Comment ce couplage linéaire est-il défini ? Pouvez-vous nous en dire plus ?
Je supprime simplement les règles qui sont très similaires, la similarité étant déterminée par les points d'activation.