Modello di mercato: rendimento costante - pagina 14

 
sanyooooook:
più spesso, meno spesso, ma cosa succede se non si tiene conto del tempo?
La determinazione usa la probabilità, non c'è alcun riferimento temporale, c'è completa libertà in questo. O, se preferite, l'ignoto :).
 

Предполагается, что рынок, как относительно замкнутая система, за единицу времени генерирует постоянное (или медленно меняющееся) количество информации.

Potrei essere d'accordo in una certa misura, il mercato non cambierà di una certa quantità (diciamo punti) fino a quando non arriverà una certa quantità di informazioni

 
sanyooooook:

Potrei essere d'accordo in una certa misura, il mercato non cambierà di una certa quantità (diciamo punti) fino a quando non arriverà una certa quantità di informazioni


Nuove persone con nuove idee su vecchie informazioni e la speranza di fare soldi sulla fallacia dei presupposti altrui vengono a cambiare il mercato :) Non hanno sentito nulla della teoria dei mercati efficienti :)
 
Di cosa si tratta?
 
Avals:

Nuove persone sono arrivate con nuove idee su vecchie informazioni e la speranza di fare soldi sulla fallacia delle supposizioni degli altri e hanno cambiato il mercato :) Non hanno sentito nulla della teoria dei mercati efficienti :)


Sono entrati e 40 pips dopo se ne sono andati? Si sono resi conto della fallacia delle loro ipotesi sulla novità delle loro idee (sulle vecchie informazioni) e sono andati a leggere sull'efficienza dei mercati?

--

Non è venerdì.

 
gip:
Moped non ha dickfix, ha fornito un link, ed è da qualche altra parte abbastanza lontano.

Ok. Come uno dei co-autori del ciclomotore, vi darò una piccola informazione:

I metodi di archiviazione "standard" (non importa LZ, Huffman, quelli più esotici) lavorano con un flusso di byte in ingresso.

Un flusso di citazioni è solitamente codificato come un flusso di numeri reali, cioè in pacchetti di pochi byte ciascuno.

Finché questo fatto viene ignorato, la compressione da parte dei popolari archiviatori universali non può nemmeno avvicinarsi a un esame significativo della quantità di informazioni in un flusso di citazioni.

Inoltre lempel-ziv supererà stabilmente Huffman di volte, il che è abbastanza logico (ma assolutamente privo di significato), perché modelli "tecnici" facilmente prevedibili, relativi alla rappresentazione dei dati (e non al comportamento delle citazioni), sono nell'input.

D'altra parte, sembra prematuro scrivere un archiviatore specializzato per la compressione del doppio flusso, perché la prospettiva di questo approccio è poco chiara e vaga.

Quindi, quali cose significative si possono fare con il minimo sforzo e la massima ragionevolezza dei risultati per far progredire la ricerca?

Il mio modo di vedere, prima di tutto, è trasformare il flusso delle citazioni.

1) al flusso di byte

2) prime differenze

3) logaritmico.

In questo caso, forse questa ricerca di informazioni diventerà un po' più informativa.

// paddon per il gioco di parole.

 
MetaDriver:

Finché questo fatto viene ignorato, la compressione da parte dei popolari archiviatori universali non può nemmeno avvicinarsi a uno studio significativo del volume di informazioni in un flusso di citazioni.

Inoltre, lempel-ziv supererà stabilmente Huffman di volte, il che è logico (ma assolutamente privo di senso), perché arrivano modelli "tecnici" facilmente prevedibili, legati alla rappresentazione dei dati (e non al comportamento delle citazioni).

E cosa pensi del risultato ottenuto dal topicstarter? Mi riferisco al tasso di compressione più alto per le serie casuali.

Può significare che l'archiviatore non è stato in grado di "decodificare" l'informazione contenuta nella serie di prezzi, ma nemmeno di scartarla?

Come penso - prima di tutto trasformare il flusso delle serie di prezzi

1) al flusso di byte

2) prime differenze

3) logaritmico.

Questo è solo per la questione di cosa applicare il misuratore di informazioni.

Mi sembra che ci sia un problema piuttosto generale qui ed è che sono gli eventi rari a portare la massima quantità di informazioni.

Tuttavia, è proprio perché sono rari che non possiamo ricostruire in modo affidabile per loro la funzione di densità di probabilità necessaria per quantificare l'informazione che contengono.

 
Candid:

Cosa pensi del risultato ottenuto dal topicstarter? Mi riferisco al tasso di compressione più alto per la serie casuale.

Potrebbe significare che l'archivista non ha potuto "decifrare" l'informazione contenuta nella serie di prezzi, ma non ha nemmeno potuto scartarla?

No. Mi sembra più primitivo. Per quanto ho capito guardando il topic, i candelieri erano compressi. Quando si è generato un segnale casuale, sono stati simulati anche i candelieri. Si noti che è stata utilizzata la distribuzione normale. Questo è il trucco (imha). Esso (NR) crea una densità di probabilità più alta di candele uguali in ampiezza e valore di spostamento. Cioè "meno informatività" in termini di teoria dell'informazione. Quindi una maggiore comprimibilità. Il risultato ottenuto, tra l'altro, dimostra che il metodo è praticabile nonostante la primitività strumentale dell'approccio.

È solo alla questione di cosa applicare il misuratore di informazioni.

Qui c'è, mi sembra, un problema piuttosto generale e consiste nel fatto che la massima informazione porta cioè eventi rari.

Tuttavia, è a causa della loro rarità che non possiamo ricostruire in modo affidabile per loro la funzione di densità di probabilità necessaria per quantificare l'informazione che contengono.

È qui che le zecche possono essere d'aiuto. Nel senso che

1) hai un sacco di informazioni di input, c'è molto da scorrere e spremere.

2) l'analisi dei tick sarà molto più corretta, che "castrata" dalle barre.

E poi si può fare ogni sorta di soglia fine Zigzag. Renko, Kagi e ogni sorta di altre modifiche.

E poi c'è questo. - La rarità dell'evento è relativa, quelli molto rari, si possono ignorare (tagliare), e per il resto raccogliere delle statistiche.

--

L'impressione generale dell'argomento è che sia un po' confuso. Il livello della discussione merita un aggiornamento. L'argomento vale la pena. Un argomento significativo.

 

Candid:

Questo potrebbe significare che l'archivista non è riuscito a "decifrare" l'informazione contenuta nella serie di prezzi, ma anche a scartarla?

In realtà, non avrei dovuto scrivere "Sì, no". È perfettamente possibile dirlo. La mia interpretazione non la contraddice in alcun modo, ma è abbastanza coerente.

È di nuovo tutta colpa delle code grasse. Stronzi. È tutta colpa loro.

 

MetaDriver:

... code spesse. Stronzi. Sono la causa di tutto.

Non scrivere: "Non sai proprio come cucinarli..."

Lo so.

:)