L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 637

 
Alexander_K2:

:)))) Dans ce cas, il faut appeler le Sorcier à l'aide :))))

La seule chose que je peux dire, c'est que c'est la non-entropie qui est responsable de la tendance/de l'état plat. La tendance est la "mémoire" du processus, sa "queue" de distribution et la non-entropie est énorme, alors que dans l'état plat elle est presque nulle. Je ne m'en occupe que moi-même, mais je comprends l'importance de ce paramètre peu étudié.

Rien ne peut l'aider maintenant. Le passage de la tendance à la flotte, comme une cuillère au dîner, devrait être bon à temps.

La ligne rouge correspond à la réalité. Syn.-modèle. Dans cet exemple, il est tard. En bas de l'image, le modèle est en retard.


 
Mihail Marchukajtes:
Mes frères, ce n'est qu'un petit pas pour nous, mais ce sera un grand pas pour toute l'humanité......

Misha, je l'ai cru ! Je le savais ! Beau gosse ! Vous êtes les meilleurs !))

 
Vizard_:

Misha, j'ai cru ! Je le savais ! Beau gosse ! Tu es le meilleur !)))

Merci pour votre soutien mate !!!!! J'en ai vraiment besoin. Epelle-le correctement la prochaine fois que tu t'adresses à moi. HandsomeGGGG !!!! Ça semble beaucoup plus solide de cette façon.....

 

Continuons...

Il y a deux colonnes avec des valeurs, j'ai calculé la probabilité d'un événement dans la colonne A et la probabilité d'un autre événement dans la colonne B. La condition est très simple >0. J'ai compté le nombre d'événements supérieurs à zéro dans la colonne A et divisé par le nombre total de lignes, de même j'ai compté le nombre de valeurs dans la colonne B et divisé par le nombre total d'observations.

Ensuite, en utilisant mes valeurs, comment puis-je calculer la probabilité conditionnelle ???? Considérant que j'ai deux colonnes et que les deux ont 40 lignes ????

 
Mihail Marchukajtes:

OK, je vais voir ça de l'autre côté. Supposons que je dispose d'un ensemble de 100 entrées. Je calcule l'entropie pour chaque entrée et j'obtiens des résultats de -10 à 10. Question : Quelles sont les entrées préférables à prendre ????

Disons que j'ai 10 entrées inférieures à zéro, les autres supérieures, MAIS toutes les valeurs sont comprises entre -10 et 10......

Mihail Marchukajtes:

Et aussi... pas moyen de calculer l'information mutuelle.... Ou plutôt la probabilité conditionnelle, pour le calcul ultérieur de l'entropie et du VI.

Quelqu'un peut-il expliquer sur les doigts ou un meilleur exemple.

première colonne 40 lignes variable d'entrée

deuxième colonne 40 lignes sortie....

J'ai fait beaucoup de travail pendant la nuit pour identifier l'hypothèse. Je suis tombé sur ces trucs et pas moyen. S'il vous plaît, aidez-moi et je vous donnerai mon avis sur mon hypothèse...


Je n'ai pas étudié la théorie de l'information, mais j'ai une certaine expérience de l'entropie dans R.

Essentiellement, plus l'entropie est grande, plus les données sont désordonnées. Un prédicteur avec une entropie élevée est plutôt mal relié à la cible. Inversement, une faible entropie indique que le prédicteur est facilement identifiable du prédicteur.

La non-entropie est le contraire de l'entropie, elle n'apporte aucune nouvelle connaissance par rapport à l'entropie, elle est juste introduite par commodité. Si le prédicteur a une grande entropie, alors la non-entropie est faible. Si l'entropie est petite, alors la non-entropie est grande. C'est comme la chaleur et le froid, la lumière et l'obscurité, etc., l'un s'intègre parfaitement à l'autre.

Mais ce n'est pas tout, il y a aussi l'entropie croisée. Il s'agit de la façon dont les deux prédicteurs ensemble sont liés à la cible, une forte entropie croisée est mauvaise, une faible est bonne. Dans l'apprentissage automatique, il arrive souvent que deux prédicteurs à forte entropie, lorsqu'ils sont utilisés ensemble, donnent une faible entropie croisée, ce dont nous avons tous besoin. Même si chacun des prédicteurs peut être mal associé à la cible par lui-même (entropie élevée pour les deux), mais ensemble ils peuvent faire mouche (entropie croisée faible). On ne peut donc pas simplement mesurer l'entropie de chaque prédicteur séparément, et choisir un ensemble en fonction de l'estimation. Vous devez sélectionner l'ensemble des prédicteurs ayant une faible entropie croisée, je ne regarde pas, par exemple, quelle est leur entropie individuelle.

Voici quelques exemples -

1) Prédicteur à forte entropie. Il n'y a aucun moyen de prédire la classe cible.

2) Prédicteur à faible entropie. Si vous regardez bien, si la valeur du prédicteur est comprise entre 0 et 0,25 ou inférieure à 0,4, alors la valeur de la classe = 1. Sinon, la classe = 2. C'est un prédicteur très pratique à utiliser en MO.

3) Deux prédicteurs, chacun a une entropie élevée, et le modèle ne sera jamais capable de prédire la cible en utilisant seulement le premier ou seulement le second prédicteur. Mais en les dessinant ensemble (l'axe des X est la valeur du premier, et l'axe des Y la valeur du second), on voit immédiatement qu'ils donnent ensemble de très bonnes informations sur la classe de la cible (même signe pour les deux prédicteurs = classe1, signe différent = classe2). C'est un exemple de faible entropie croisée.


 
Mihail Marchukajtes:

Merci pour votre soutien Fellow !!!!! J'en ai vraiment besoin. Epelle-le correctement la prochaine fois que tu t'adresses à moi. HandsomeGGGGG !!!! Cela semble tellement plus solide....

C'est pour ça qu'on vous aime, professeur ! Il est toujours là, il nous corrige toujours. Vous êtes notre cher homme ! !!))

"Les témoins de Mishanin". Février 2018.


 
En dépit des récriminations, je vais continuer. J'ai calculé la probabilité conditionnelle comme suit . Le nombre de données satisfaisant la condition dans la première colonne est de 19, dans la seconde de 20. Pour trouver la probabilité conditionnelle. J'additionne 19+20 et je divise le tout par le nombre total d'entrées qui est de 80 (40 dans la première colonne et 40 dans la deuxième). Et vous devez diviser par la probabilité.... Si j'ai une colonne A-entrée et une colonne B-sortie, alors pour connaître la probabilité conditionnelle de l'entrée à la sortie, il faut diviser la probabilité totale par la probabilité de la colonne entrée. Est-ce que c'est correct ? ??
 
Mihail Marchukajtes:

Encore une fois, une question. Il existe huit modèles de SN. Au signal actuel, les entropies des sorties NS sont les suivantes

5,875787568 -5,702601649 5,066989592 9,377441857 7,41065367 1,401022575 4,579082852 5,119647925

Lequel dois-je choisir ? Le rouge ? parce qu'il a une entropie négative ou le bleu ? il est plus proche de zéro. Je dirai que ces deux modèles regardent dans des directions différentes, mais nous savons que le temps dira qui avait raison..... Au final, l'un d'entre eux gagnera. Qui y pense ?

Pour résumer ce que j'ai écrit ci-dessus, il faut d'abord déterminer l'entropie croisée des combinaisons de prédicteurs, et prendre la combinaison de prédicteurs où l'entropie croisée est la plus faible. C'est étrange que ce soit négatif, dans mon cas c'est juste l'infini à zéro, mais peu importe, prenez le plus négatif alors.

L'entropie de la sortie NS est, à mon avis, mauvaise comme estimation de la neuronique elle-même. Vous pouvez ajuster les sorties du réseau pour qu'il donne une réponse correcte dans 100% des cas, et il aura une faible entropie, mais il peut avoir un grand overfit. La suralimentation est mauvaise.

 

Le fait est que j'ai trouvé un module complémentaire pour Excel, qui calcule l'entropie. Je l'ai terminé de la façon dont je le souhaite, sans changer la logique du calcul et j'ai donc cette question. Expliquez ce qui se passe ici dans le calcul de ces cyclopes. Ce qu'ils font exactement, je le comprends, mais d'une autre manière..... HM....

Pour chaque valeur dans ActiveSheet.Range(Data1)

X(I) = Valeur

Nn = Nn + Valeur

I = I + 1

Valeur suivante

Dans cette boucle, le tableau X est écrit et il y a aussi une somme cumulée, comme s'il n'y avait pas de question, mais en plus.....

Pour I = 1 à N

X(I) = X(I) / Nn

Suivant I

Nous divisons chaque élément du tableau par la somme totale des valeurs, je soupçonne que c'est juste la recherche de fréquence. Droit ????

Ok... Je crois que j'ai compris, on doit additionner toutes les fréquences pour trouver la probabilité. N'est-ce pas ?

 
Dr. Trader:

Pour résumer ce que j'ai écrit ci-dessus, il faut d'abord déterminer l'entropie croisée des combinaisons de prédicteurs, puis prendre la combinaison de prédicteurs ayant l'entropie croisée la plus faible. C'est étrange qu'il soit négatif, dans mon cas c'est juste l'infini à zéro, mais peu importe, prenez le plus négatif alors.

L'entropie de la sortie NS est, à mon avis, mauvaise comme estimation de la neuronique elle-même. Vous pouvez ajuster les sorties du réseau pour qu'il donne une réponse correcte dans 100% des cas, et il aura une faible entropie, mais il peut avoir un grand overfit. La suralimentation est mauvaise.

Pour trouver l'entropie croisée, vous devez d'abord trouver l'entropie conditionnelle de deux événements, ce que je fais maintenant.....

Et l'estimation de l'entropie du modèle est nécessaire lorsque le modèle est en OOS. Après avoir émis un signal, nous pouvons calculer l'entropie de ce signal et l'utiliser pour tirer des conclusions. L'entropie du signal a augmenté. Putain, c'est en panne - c'est notre locomotive à vapeur....

Raison: