Modèle de marché : débit constant - page 14

 
sanyooooook:
plus souvent, moins souvent, mais que faire si le temps n'est pas pris en compte ?
La détermination utilise la probabilité, il n'y a pas de référence temporelle, il y a une liberté totale avec cela. Ou, si vous préférez, l'inconnu :).
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

Je peux être d'accord dans une certaine mesure, le marché ne changera pas d'un certain montant (disons des points) jusqu'à ce qu'un certain nombre d'informations arrivent.

 
sanyooooook:

Je peux être d'accord dans une certaine mesure, le marché ne changera pas d'un certain montant (disons des points) jusqu'à ce qu'un certain nombre d'informations arrivent.


De nouvelles personnes avec de nouvelles idées sur de vieilles informations et l'espoir de gagner de l'argent sur l'erreur des hypothèses des autres viennent changer le marché :) Ils n'ont pas entendu parler de la théorie des marchés efficients :)
 
De quoi s'agit-il ?
 
Avals:

De nouvelles personnes sont arrivées avec de nouvelles idées sur de vieilles informations et l'espoir de gagner de l'argent grâce à l'erreur des hypothèses des autres et ont changé le marché :) Ils n'ont rien entendu de la théorie des marchés efficients :)


Ils sont entrés et 40 pips plus tard ils sont partis ? Ils ont réalisé l'erreur de leurs hypothèses sur la nouveauté de leurs idées (sur les anciennes informations) et sont allés lire sur l'efficacité des marchés ?

--

Ce n'est pas vendredi.

 
gip:
Moped n'a pas fait de dickfix, il a fourni un lien, et il vient d'un endroit assez éloigné.

Ok. En tant qu'un des co-auteurs de la mobylette, je vais vous donner un petit aperçu :

Les méthodes d'archivage "standard" (sans parler de LZ, Huffman et autres méthodes plus exotiques) fonctionnent avec un flux d'octets en entrée.

Un flux de citations est généralement codé comme un flux de nombres réels, c'est-à-dire en paquets de quelques octets chacun.

Tant que ce fait est ignoré, la compression pratiquée par les archiveurs universels populaires ne peut même pas s'approcher d'un examen significatif de la quantité d'informations contenues dans un flux de citations.

De plus, lempel-ziv surpassera Huffman de plusieurs fois de manière stable, ce qui est tout à fait logique (mais absolument dénué de sens), car des modèles "techniques" facilement prévisibles, liés à la représentation des données (et non au comportement des citations), se trouvent en entrée.

D'autre part, il semble prématuré d'écrire un archiveur spécialisé pour la compression du double flux, car les perspectives de cette approche sont floues et vagues.

Alors, quelles sont les choses significatives qui peuvent être faites avec un minimum d'effort et un maximum de vraisemblance des résultats pour faire avancer la recherche ?

La façon dont je vois les choses, tout d'abord, est de transformer le flux des citations.

1) vers le flux d'octets

2) premières différences

3) logarithmique.

Dans ce cas, peut-être que cette recherche d'informations deviendra un peu plus instructive.

// paddon pour le jeu de mots.

 
MetaDriver:

Tant que ce fait est ignoré, la compression effectuée par les archiveurs universels populaires ne peut même pas s'approcher d'une étude significative du volume d'informations dans un flux de citations.

De plus, lempel-ziv surpassera Huffman de plusieurs fois, ce qui est logique (mais absolument dénué de sens), car des modèles "techniques" facilement prévisibles, liés à la représentation des données (et non au comportement des guillemets), entrent en jeu.

Et que pensez-vous du résultat obtenu par le topicstarter ? Je fais référence au taux de compression plus élevé pour les séries aléatoires.

Cela peut-il signifier que l'archiveur n'a pas été en mesure de "décoder" l'information contenue dans la série de prix, mais qu'il n'a pas non plus été en mesure de la rejeter ?

Comment je pense - tout d'abord transformer le flux de série de prix

1) vers le flux d'octets

2) premières différences

3) logarithmique.

Cela ne concerne que la question de savoir à quoi appliquer le compteur d'informations.

Il me semble qu'il y a là un problème assez général, à savoir que ce sont les événements rares qui véhiculent le maximum d'informations.

Cependant, c'est précisément parce qu'ils sont rares que nous ne pouvons pas reconstruire de manière fiable pour eux la fonction de densité de probabilité nécessaire pour quantifier l'information qu'ils contiennent.

 
Candid:

Que pensez-vous du résultat obtenu par le topicstarter ? Je fais référence au taux de compression plus élevé pour la série aléatoire.

Cela pourrait-il signifier que l'archiveur n'a pas pu "déchiffrer" les informations contenues dans la série de prix, mais qu'il n'a pas non plus pu les éliminer ?

Non. Ça me semble plus primitif. D'après ce que j'ai compris en parcourant le sujet, les chandeliers étaient comprimés. Lors de la génération d'un signal aléatoire, les chandeliers ont également été simulés. Notez que la distribution normale a été utilisée. C'est ça l'astuce (imha). Il (NR) crée une densité de probabilité plus élevée de chandeliers égaux en amplitude et en valeur de décalage. C'est-à-dire "moins d'informativité" en termes de théorie de l'information. D'où une plus grande compressibilité. Le résultat obtenu montre d'ailleurs que la méthode est praticable malgré la primauté instrumentale de l'approche.

Il s'agit seulement de savoir à quoi appliquer le compteur d'informations.

Il y a ici, me semble-t-il, un problème assez général et il consiste en ce que le maximum d'information porte notamment sur des événements rares.

Cependant, c'est en raison de leur rareté que nous ne pouvons pas reconstruire de manière fiable pour eux la fonction de densité de probabilité nécessaire pour quantifier l'information qu'ils contiennent.

C'est là que les tiques peuvent être utiles. Dans le sens où

1) vous avez beaucoup d'informations en entrée, il y a beaucoup à faire défiler et à presser.

2) l'analyse des tics sera beaucoup plus correcte, que "castrée" par les barres.

Et ensuite, vous pouvez faire toutes sortes de zigzags à seuil fin. Renko, Kagi et toutes sortes d'autres modifications.

Et puis il y a ça. - La rareté d'un événement est relative, les événements très rares peuvent être ignorés (coupés), et pour les autres, il faut collecter des statistiques.

--

L'impression générale du sujet est qu'il est quelque peu confus. Le niveau de la discussion mérite d'être relevé. Le sujet en vaut la peine. Un sujet significatif.

 

Candid:

Cela pourrait-il signifier que l'archiveur n'a pas réussi à "déchiffrer" les informations contenues dans la série de prix, mais qu'il n'a pas non plus réussi à les éliminer ?

En fait, je n'aurais pas dû écrire "Oui non". Il est parfaitement possible de le dire. Mon interprétation ne le contredit en aucune façon, mais est tout à fait cohérente.

C'est encore la faute des grosses queues. Connards. C'est de leur faute.

 

MetaDriver:

... queues épaisses. Connards. Ils sont la cause de tout.

N'écrivez pas : "Vous ne savez pas comment les cuisiner..."

Je sais.

:)

Raison: