Test des systèmes de prévision en temps réel - page 60

 
grasn писал(а) >>

Je suppose que ce sera trop tard :o( Mais ce n'est pas grave ! !! Je ferai d'autres prédictions, de nouvelles trajectoires de dix-neuf, et l'une d'entre elles se révélera probablement fructueuse, et nous justifierons l'entropie ! :о))))))))))

Il ne sera pas trop tard. Personne n'est oublié et rien n'est oublié. :-)

Et ce que vous prédisez sera également utile. :-)))

 

Vendre à l'ouverture du marché avec un objectif à 5438, stop dans la zone 5514.

 
Yurixx >> :

Une photo s'il vous plaît !

Bonjour Sergey. Pourriez-vous, en tant que héros de ce fil, répéter votre photo avec les prévisions que vous avez faites avant les vacances et ce que vous avez réellement obtenu ?

C'est-à-dire toutes les trajectoires prédites + le mouvement réel des prix sur une seule image.

J'ai toujours cet indicateur dans le terminal (j'allais le supprimer). Voici la photo. C'est assez clair. Peut-être que ça sera suffisant.


 
grasn >> :

Au fait, quelle est l'entropie informationnelle d'une fausse information ? :о)

Pour l'entropie, toute information est équivalente. Si nous prenons comme exemple toutes les implémentations de prévisions ayant la même entropie, certaines d'entre elles donnent plus de prévisions correctes et d'autres moins. C'est-à-dire que la quantité d'informations qu'ils contiennent est égale, mais la qualité de la prédiction est différente. Le modèle, cependant, est le même. Je parlais spécifiquement de l'entropie comme indicateur de la qualité des prédictions. Tout a commencé par le choix des "favoris" en fonction de leur valeur entropique ;-).

grasn >> :

L'entropie en tant que telle n'a rien à voir avec cela. Elle est entièrement déterminée par l'imbrication du système (sa dimensionnalité). Seulement ça, rien d'autre. Plus la dimensionnalité est élevée, plus il est difficile de prédire le système, c'est tout. Eh bien, chaque dimension apporte sa propre "tranche" d'entropie. L'entropie peut être "importante" et le système peut être tout à fait "compréhensible".

Pourtant, selon cette formule, l'horizon de prévision est inversement proportionnel à l'entropie. Peut-être ne devrions-nous pas mélanger la qualité et l'horizon de prévision. C'est une inexactitude de ma part. Mais les deux sont nécessaires dans la même mesure. Et en ce qui concerne le lien entre la dimensionnalité et l'entropie - cela peut devenir une conversation trop longue, donc je ne développerai pas ce sujet ici ;-).
 
marketeer >> :

Pour l'entropie, toute information est égale. Si nous prenons par exemple toutes les réalisations de prédictions avec la même entropie, alors certaines d'entre elles donnent plus de prédictions correctes, et d'autres moins. C'est-à-dire que la quantité d'informations qu'ils contiennent est égale, mais la qualité de la prédiction est différente. Le modèle, cependant, est le même. Je parlais spécifiquement de l'entropie comme indicateur de la qualité des prédictions. Tout a commencé par le choix des "favoris" en fonction de leur valeur entropique ;-).

Ce n'est pas ce que j'ai écrit :o) En général, cela n'a pas d'importance.

Pourtant, selon cette formule, l'horizon de prévision est inversement proportionnel à l'entropie. Peut-être ne devrions-nous pas mélanger la qualité et l'horizon de prévision. C'est une inexactitude de ma part. Mais les deux sont nécessaires dans la même mesure. Et en ce qui concerne la connexion d'une dimension et de l'entropie - cela peut devenir une conversation trop longue, donc je ne développerai pas ce thème ici ;-).

L'entropie K de la formule est celle de Kolmogorov, et elle est, pour le moins, fortement liée à la dimensionnalité. Il faut regarder à la racine du problème. :о)

 
marketeer >> :

Pas toutes, juste les trajectoires principales, mais j'ai toujours cette platine dans le terminal (j'allais la supprimer). Voici une photo. C'est assez clair. Peut-être que ça sera suffisant.


Je comprends que Yuri ait demandé une photo d'une autre prédiction (je jouais les dés à coudre là :o))

 
grasn >> :

Ce n'est pas ce dont je parlais :o) De toute façon, ça n'a pas d'importance.

La formule a une entropie K de Kolmogorov, et elle est, pour le moins, fortement liée à la dimensionnalité. Il faut regarder à la racine du problème. :о)

OK, ;-) le sujet de la sélection des meilleures prédictions par valeur d'entropie n'est pas résolu, je pense. Je vais examiner l'histoire pour voir comment la justesse des prédictions est corrélée à la valeur de l'entropie.

 

Je m'attends à un effondrement précipité de la livre, au moins 600 pips, le niveau de support le plus proche est 1.6

 

C'est dommage que l'arrêt se soit déclenché, mais sinon la photo était presque parfaite :


 
marketeer >> :

OK, ;-) le sujet de la sélection des meilleures prédictions par valeur d'entropie n'est pas résolu, je pense. Je verrai dans l'histoire comment la justesse des prédictions est corrélée à la valeur de l'entropie.

Il y a une philosophie subtile ici. L'entropie minimale ne peut pas être choisie comme critère, simplement l'entropie nulle est une zone avec une probabilité nulle que le prix apparaisse dans cette zone, en d'autres termes, cela n'a aucun sens d'attendre le prix là où il ne peut pas être, vous devez attendre là où sa probabilité est maximale. Il y a une autre subtilité, je pense que vous considérez l'entropie informationnelle comme une entropie physique, et ce sont des choses légèrement différentes. :о)

Raison: