L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 638

 
Mihail Marchukajtes:

Pour trouver l'entropie croisée, vous devez d'abord trouver l'entropie conditionnelle de deux événements, ce que je fais maintenant.....

Et l'estimation de l'entropie du modèle est nécessaire au moment où le modèle fonctionne sur la rétroaction. Après avoir émis un signal, nous pouvons calculer l'entropie de ce signal et l'utiliser pour tirer des conclusions. L'entropie du signal a augmenté. Eh bien, merde, elle est tombée - c'est notre locomotive à vapeur....

Pour le trading de tendance - oui, exactement. Michael, allons plus vite, parce que mon beau-père est déjà en train de me tordre les poings au visage dans une ruée vers l'argent du Forex, ne me permet pas de me concentrer sur l'entropie/non-entropie...

 
Mihail Marchukajtes:

Pour trouver l'entropie croisée, vous devez d'abord trouver l'entropie conditionnelle des deux événements, ce que je fais maintenant.....

Vous avez une autre entropie croisée que la mienne, je ne peux pas vous aider. Bien que j'aie aussi une bicyclette, je ne vais pas discuter de ce qui est le mieux :)

Jetez un œil aux paquets R sur le sujet, il semble quehttps://cran.r-project.org/web/packages/EMVC/EMVC.pdf vous conviendrait pour trouver à la fois l'entropie et l'entropie croisée, et filtrer les prédicteurs.

 
Dr. Trader:


Je n'ai pas étudié la théorie de l'information, mais j'ai une certaine expérience de l'entropie dans R.

En gros, plus l'entropie est élevée, plus il y a de chaos dans les données. Un prédicteur avec une entropie élevée est plutôt mal relié à la cible. Inversement, une faible entropie indique que le prédicteur est facilement identifiable du prédicteur.

La non-entropie est le contraire de l'entropie, elle n'apporte aucune nouvelle connaissance par rapport à l'entropie, elle est juste introduite par commodité. Si le prédicteur a une grande entropie, alors la non-entropie est faible. Si l'entropie est petite, alors la non-entropie est grande. C'est comme la chaleur et le froid, la lumière et l'obscurité, etc., l'un s'intègre parfaitement à l'autre.

Mais ce n'est pas tout, il y a aussi l'entropie croisée. Il s'agit de la façon dont les deux prédicteurs ensemble sont liés à la cible, une forte entropie croisée est mauvaise, une faible est bonne. Dans l'apprentissage automatique, il arrive souvent que deux prédicteurs à forte entropie, lorsqu'ils sont utilisés ensemble, donnent une faible entropie croisée, ce dont nous avons tous besoin. Même si chacun des prédicteurs peut être mal associé à la cible par lui-même (entropie élevée pour les deux), mais ensemble ils peuvent faire mouche (entropie croisée faible). On ne peut donc pas simplement mesurer l'entropie de chaque prédicteur séparément, et choisir un ensemble en fonction de l'estimation. Vous devez sélectionner l'ensemble des prédicteurs ayant une faible entropie croisée, je ne regarde pas, par exemple, quelle est leur entropie individuelle.

Voici quelques exemples -

1) Prédicteur à forte entropie. Il n'y a aucun moyen de prédire la classe cible.

2) Prédicteur à faible entropie. Si vous regardez bien, si la valeur du prédicteur est comprise entre 0 et 0,25 ou inférieure à 0,4, alors la valeur de la classe = 1. Sinon, la classe = 2. C'est un prédicteur très pratique à utiliser en MO.

3) Deux prédicteurs, chacun a une entropie élevée, et le modèle ne sera jamais capable de prédire la cible en utilisant seulement le premier ou seulement le second prédicteur. Mais en les dessinant ensemble (l'axe des X est la valeur du premier, et l'axe des Y la valeur du second), on voit immédiatement qu'ils donnent ensemble de très bonnes informations sur la classe de la cible (même signe pour les deux prédicteurs = classe1, signe différent = classe2). C'est un exemple de faible entropie croisée.


Peut-être seulement les principaux composants ?

 
Je m'en souviens ! Dennis Kirichenko a été le premier à suggérer de prendre en compte l'entropie/non-entropie. J'ai littéralement éclaté en sanglots devant le bonheur imminent de l'argent.
 

http://padabum.com/d.php?id=223567

non merci

Je lis à nouveau... quand est-ce que ça va finir

Обучение с подкреплением
Обучение с подкреплением
  • votes : 1
  • padabum.com
Обучение с подкреплением является одной из наиболее активно развивающихся областей, связанных с созданием искусственных интеллектуальных систем. Оно основано на том, что агент пытается максимизировать получаемый выигрыш, действуя в сложной среде с высоким уровнем неопределенности. Дается исчерпывающее и ясное изложение идей...
 
Maxim Dmitrievsky:

http://padabum.com/d.php?id=223567

non merci

Encore une lecture... quand est-ce que ça va finir ?

Merci pour le livre.

Non, de tels liens avec le processus d'installation ne sont pas téléchargés)).

 
Yuriy Asaulenko:

Merci pour le livre.

Non, de tels liens avec le processus d'installation ne sont pas téléchargés)).

Tout se télécharge normalement, sans aucune installation

pdf est vide, je peux le convertir en djvu et l'envoyer.
 
SanSanych Fomenko:

Peut-être seulement les principaux composants ?

Les composantes principales sont calculées sans analyse de ciblage. Il est possible de trouver les composantes principales, mais on ne sait pas à l'avance si elles sont utiles pour prédire la bonne cible.

Et l'entropie croisée peut être calculée par rapport à une cible spécifique, et le résultat indiquera quels prédicteurs doivent être supprimés parce qu'ils interfèrent.
Je voulais essayer le paquet EMCV, j'aurais aimé le remarquer plus tôt, s'il fonctionne, je posterai des exemples de son utilisation ici plus tard.

 
Maxim Dmitrievsky:

Tout se télécharge normalement, sans aucun réglage.

Désolé, j'ai appuyé sur le mauvais bouton "télécharger" et il y a un fichier exe.

Tout va bien.

 
Yuriy Asaulenko:

Désolé, j'ai appuyé sur le mauvais bouton "télécharger". C'est bon.

C'est juste un bouton publicitaire, il est temps d'être plus expérimenté sur les sites pirates ;))

Raison: