L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3386

 


mytarmailS #:

Je vais essayer depuis Khabarovsk...


Tout modèle est une certaine somme de schémas, exagérément, un schéma peut être étiqueté comme un TS.


Imaginons qu'un modèle se compose de 100 TS.


Il se peut que, dans le modèle n° 1, 100 CT aient conclu une transaction.

Il se peut que dans le modèle n° 2, un CT ait conclu 100 accords et que les 99 autres n'aient conclu aucun accord.


Comment calculer les statistiques pour chaque CT?

Si le modèle est tiré des règles, cela peut être fait facilement et clairement.

Si le modèle estneuronal ?

Le problème n'est pas le nombre de fois où le modèle est utilisé.

Le problème est que le même modèle (arbre ?) sur les mêmes données prédit une étiquette dans certains cas et une étiquette différente dans d'autres cas. C'est ce qu'on appelle l'erreur de classification. Il n'y a pas de prédicteurs, du moins chez nous, dont les valeurs peuvent être classées strictement en classes. Et tous les problèmes liés aux feuilles, aux arbres et autres sont dérivés des valeurs des prédicteurs.

 
Maxim Dmitrievsky #:
Si l'erreur a déjà cessé de diminuer ou est égale à zéro, vous pouvez diviser les exemples restants en motifs en fonction d'une certaine mesure de proximité :) Le regroupement, par exemple. Et compter combien il en reste. Et même en écrivant une condition moyenne pour chaque motif/cluster (prendre les centroïdes des clusters), vous obtiendrez une règle dans la sortie.
C'est possible, mais où est la garantie que le partitionnement a été fait correctement, conformément au partitionnement interne des neurones ?

Où est la garantie que la mesure de proximité choisie pour le regroupement est choisie correctement ?

Etc...

Ne serait-il pas plus simple de partitionner le modèle en bois et de ne pas avoir à créer un Franklinstein

 
mytarmailS #:
C'est possible, mais où est la garantie que le partitionnement est correct, conformément au partitionnement interne des neurones ?
Où est la garantie que la mesure de proximité choisie pour le regroupement est choisie correctement ?
C'est une question philosophique.
 
C'est à ce niveau que la dernière couche de neurones, et non les exemples, doit être regroupée.
 
mytarmailS #:
Si vous voulez faire des regroupements, ce ne sont pas les exemples, c'est la dernière couche de neurones.
Non, ce sont les exemples. On ne peut pas construire des règles sur les dernières couches de neurones.
 
Maxim Dmitrievsky #:
Non, juste des exemples. On ne peut pas élaborer des règles à partir des dernières couches de neurones.
Laissez-moi créer un échantillon de données et chacun appliquera sa propre méthodologie, et nous verrons.
 
mytarmailS #:
Laissez-moi créer un échantillon de données et laissez chacun appliquer sa méthodologie.
Je n'ai pas essayé cette approche, je réfléchis simplement à haute voix à la manière d'obtenir des règles à partir de n'importe quel modèle. Nous pourrons jouer avec cela plus tard.
 
Maxim Dmitrievsky #:
Je n'ai pas essayé cette approche, je réfléchis simplement à haute voix sur la façon d'obtenir des règles à partir de n'importe quel modèle. Vous pourrez jouer avec plus tard.
Je n'ai pas essayé non plus, c'est ma théorie contre la vôtre.
 

Il semble que les articles ne soient plus traduits ou qu'ils n'aient pas le temps. La section anglaise est déjà pleine d'articles sur python et onnx :)) Et un article sur R est apparu.

En général, les articles sont inutiles en termes de TC. A peu près la même chose que sur Medium, ils écrivent pour écrire.

 
mytarmailS #:

Il s'agit maintenant d'identifier toutes les règles linéairement liées et de les supprimer en tant que règles redondantes.

Comment ce couplage linéaire est-il défini ? Pouvez-vous nous en dire plus ?

Je supprime simplement les règles qui sont très similaires, la similarité étant déterminée par les points d'activation.

Raison: