Marktmodell: konstanter Durchsatz - Seite 14

 
sanyooooook:
häufiger, seltener, aber was, wenn die Zeit nicht berücksichtigt wird?
Bei der Bestimmung wird die Wahrscheinlichkeit verwendet, es gibt keinen Zeitbezug, es herrscht völlige Freiheit. Oder, wenn Sie es vorziehen, das Unbekannte :).
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

Ich kann bis zu einem gewissen Grad zustimmen, der Markt wird sich nicht um einen bestimmten Betrag (sagen wir Punkte) verändern, bis eine bestimmte Menge an Informationen eintrifft.

 
sanyooooook:

Ich kann bis zu einem gewissen Grad zustimmen, der Markt wird sich nicht um einen bestimmten Betrag (sagen wir Punkte) verändern, bis eine bestimmte Menge an Informationen eintrifft.


Neue Leute mit neuen Ideen über alte Informationen und der Hoffnung, mit den falschen Annahmen anderer Leute Geld zu verdienen, kommen und verändern den Markt :) Sie haben noch nie etwas von der Theorie der effizienten Märkte gehört :)
 
Was hat es damit auf sich?
 
Avals:

Neue Leute kamen mit neuen Ideen über alte Informationen und der Hoffnung, mit den falschen Annahmen anderer Geld zu verdienen, und veränderten den Markt :) Sie haben noch nie etwas von der Theorie der effizienten Märkte gehört :)


Sie kamen herein und gingen 40 Pips später wieder weg? Sie haben den Trugschluss ihrer Annahmen über die Neuartigkeit ihrer Ideen (über alte Informationen) erkannt und sich über die Effizienz der Märkte informiert?

--

Heute ist nicht Freitag.

 
gip:
Moped hat nicht "dickfix" gemacht, er hat einen Link angegeben, und der ist von einem anderen Ort, ziemlich weit weg.

Ja. Als einer der Mitautoren des Mopeds werde ich Ihnen einen kleinen Einblick geben:

"Standard"-Archivierungsmethoden (ganz zu schweigen von LZ, Huffman und exotischeren Methoden) arbeiten mit einem Bytestrom am Eingang.

Ein Strom von Anführungszeichen wird in der Regel als Strom von reellen Zahlen kodiert, d.h. in Paketen von jeweils einigen Bytes.

Solange diese Tatsache ignoriert wird, kann die Komprimierung durch gängige universelle Archivierungsprogramme nicht einmal annähernd eine sinnvolle Untersuchung der Informationsmenge in einem Zitatstrom darstellen.

Darüber hinaus übertrifft lempel-ziv Huffman um ein Vielfaches, was logisch (aber völlig sinnlos) ist, weil die Eingabe leicht vorhersehbare "technische" Muster enthält, die mit der Datendarstellung (und nicht mit dem Zitierverhalten) zusammenhängen.

Andererseits scheint es verfrüht, ein spezielles Archivierungsprogramm für die Komprimierung des Stream-Doppels zu schreiben, da die Aussichten für diesen Ansatz unklar und vage sind.

Was kann also mit minimalem Aufwand und maximaler Angemessenheit der Ergebnisse sinnvoll getan werden, um die Forschung voranzubringen?

Meines Erachtens geht es in erster Linie darum, den Fluss der Zitate zu verändern.

1) zum Bytestrom

2) erste Unterschiede

3) logarithmisch.

In diesem Fall wird diese Informationsrecherche vielleicht ein wenig informativer.

// paddon für das Wortspiel.

 
MetaDriver:

Solange diese Tatsache ignoriert wird, kann die Komprimierung durch gängige Universalarchivierer nicht einmal annähernd eine sinnvolle Untersuchung des Informationsvolumens in einem Zitatstrom darstellen.

Darüber hinaus wird lempel-ziv Huffman stabil um ein Vielfaches übertreffen, was logisch (aber absolut bedeutungslos) ist, weil leicht vorhersehbare "technische" Muster, die mit der Datendarstellung (und nicht mit dem Verhalten von Anführungszeichen) zusammenhängen, zum Tragen kommen.

Und was halten Sie von dem Ergebnis, das der Themenstarter erzielt hat? Ich beziehe mich auf die höhere Komprimierungsrate für Zufallsserien.

Kann es bedeuten, dass der Archivierer nicht in der Lage war, die in den Preisreihen enthaltenen Informationen zu "entschlüsseln", aber auch nicht in der Lage war, sie zu verwerfen?

Wie stelle ich mir das vor - zunächst einmal den Preisreihenstrom umwandeln

1) zum Bytestrom

2) erste Unterschiede

3) logarithmisch.

Es geht nur um die Frage, worauf der Informationszähler angewendet werden soll.

Hier scheint mir ein recht allgemeines Problem zu bestehen, nämlich dass die seltenen Ereignisse den größten Informationsgehalt haben.

Doch gerade weil sie selten sind, können wir für sie nicht zuverlässig die Wahrscheinlichkeitsdichtefunktion rekonstruieren, die für die Quantifizierung der in ihnen enthaltenen Informationen erforderlich ist.

 
Candid:

Was halten Sie von dem Ergebnis, das der Themenstarter erzielt hat? Ich beziehe mich auf die höhere Kompressionsrate für die Zufallsreihen.

Könnte dies bedeuten, dass der Archivar die in den Preisreihen enthaltenen Informationen nicht "entschlüsseln", aber auch nicht verwerfen konnte?

Nein. Das erscheint mir eher primitiv. Soweit ich das Thema verstanden habe, wurden die Kerzenständer komprimiert. Bei der Generierung eines Zufallssignals wurden auch Candlesticks simuliert. Beachten Sie, dass die Normalverteilung verwendet wurde. Das ist der Trick (imha). Er (NR) erzeugt eine höhere Wahrscheinlichkeitsdichte von Candlesticks mit gleicher Amplitude und gleichem Shift-Wert. D.h. "weniger Informativität" im Sinne der Informationstheorie. Daraus ergibt sich eine höhere Kompressibilität. Das erzielte Ergebnis zeigt übrigens, dass die Methode trotz der instrumentellen Primitivität des Ansatzes praktikabel ist.

Es geht nur um die Frage, worauf der Informationszähler angewendet werden soll.

Hier gibt es, wie mir scheint, ein ziemlich allgemeines Problem, und es besteht darin, dass die maximalen Informationen nämlich seltene Ereignisse tragen.

Aufgrund ihrer Seltenheit können wir für sie jedoch nicht zuverlässig die Wahrscheinlichkeitsdichtefunktion rekonstruieren, die zur Quantifizierung der in ihnen enthaltenen Informationen erforderlich ist.

Hier können Zecken eine Hilfe sein. In dem Sinne, dass

1) Sie haben eine Fülle von Eingangsinformationen, es gibt viel zu blättern und zu quetschen.

2) die Tick-Analyse wird viel korrekter sein, als durch Balken "kastriert".

Und dann kann man alle Arten von feinen Schwellen-Zickzacklinien machen. Renko, Kagi und alle möglichen anderen Modifikationen.

Und dann ist da noch das. - Die Seltenheit von Ereignissen ist relativ, sehr seltene können Sie ignorieren (abschneiden), und für den Rest von ihnen einige Statistiken zu sammeln.

--

Der Gesamteindruck des Themas ist etwas verworren. Das Niveau der Diskussion verdient eine Aufwertung. Das Thema ist es wert. Ein sinnvolles Thema.

 

Candid:

Könnte dies bedeuten, dass der Archivar die in den Preisreihen enthaltenen Informationen nicht "entschlüsseln", aber auch nicht verwerfen konnte?

Eigentlich hätte ich nicht 'Ja, nein' schreiben sollen. Das kann man durchaus so sagen. Meine Interpretation widerspricht dem in keiner Weise, sondern ist ganz konsequent.

Schuld sind wieder einmal die fetten Schwänze. Arschlöcher. Es ist alles ihre Schuld.

 

MetaDriver:

... dicke Schwänze. Arschlöcher. Sie sind die Ursache für alles.

Schreiben Sie nicht: "Sie wissen einfach nicht, wie man sie zubereitet...".

Ich weiß.

:)

Grund der Beschwerde: