Teoria del flusso casuale e FOREX - pagina 23

 
Prival:

E per quanto riguarda l'adeguatezza per qualsiasi serie temporale è possibile costruire ACF, il più delle volte è la base per l'analisi, così in precedenza in questo thread ho dato un'immagine di ACF ottenuto sul modello e ACF di quotazioni reali, guarda l'aspetto non differiscono.


Questa immagine è un riferimento alla questione della stazionarietà. Questi sono diagrammi temporali del primo cambio di segno ACF da + a - . Questa caratteristica è scelta come uno dei punti speciali. L'ACF è calcolata per Y - mu, per la curva inferiore la regressione lineare è calcolata sull'intervallo settimanale, per quella superiore è approssimativamente sull'intervallo mensile.

 
lna01:
Immagine alla questione della stazionarietà. Questi sono diagrammi temporali del primo cambio di segno ACF da + a - . Questa caratteristica è scelta come uno dei punti speciali. L'ACF è calcolata per Y - mu, per la curva inferiore la regressione lineare è calcolata sull'intervallo settimanale, per quella superiore è approssimativamente sull'intervallo mensile.
Si prega di mostrare questo punto sul grafico ACF, sembra che il primo punto di flesso sia il passaggio da - a + (cioè prima la curva va giù (-) poi su (+) questo punto definisce solo la frequenza di oscillazione). I numeri sono in ore ? oppure l'ACF è stato pre-normalizzato lungo l'asse X dalla profondità di campionamento. E se non è difficile le vostre conclusioni. Penso che una conclusione ovvia sia che le oscillazioni sono sempre presenti, perché c'è un punto di inflessione, la frequenza di queste oscillazioni cambia più piccola è la dimensione del campione più veloce è il tasso di cambiamento della frequenza delle oscillazioni. Tuttavia, se ho capito bene questi grafici
 
Prival:
Si prega di mostrare questo punto sul grafico ACF, sembra che il primo punto di flesso è il cambiamento da - a + (cioè prima la curva va giù (-) poi su (+) questo punto è come la frequenza di oscillazione). I numeri sono in ore ? oppure l'ACF è stato pre-normalizzato lungo l'asse X dalla profondità di campionamento. E se non è difficile le vostre conclusioni. Penso che una conclusione ovvia sia che le oscillazioni sono sempre presenti, perché c'è un punto di inflessione, la frequenza di queste oscillazioni cambia più piccola è la dimensione del campione più veloce è il tasso di cambiamento della frequenza delle oscillazioni. Tuttavia, se ho capito bene questi grafici


Vi do un'immagine:

Cioè, questo è il punto singolare "sbagliato", ma è più vicino :), e, presumibilmente, la sua coordinata è monotonicamente legata alla coordinata di quello "giusto". Inoltre, si trova in una sezione più ripida dell'ACF, cioè probabilmente meno dipendente dal rumore - cioè più adatto come primo criterio grezzo (cioè veloce) di stazionarietà, imho.

I numeri sono il tempo in ore. Non è difficile da normalizzare, ma ciò che è interessante è esattamente quanto tempo possiamo "tirare" un modello fermo sul mercato.

Finora l'unica conclusione è che prima di codificare un filtro di Kalman dovremmo imparare a ottenere dati iniziali con periodi di stazionarietà sufficientemente frequenti e sufficientemente lunghi. Ed ecco altri pensieri. Il fatto che la situazione di stazionarietà dipenda dalla lunghezza del campione può solo significare che la sua scelta è una questione di principio e il successo dipende da questo. O in una formulazione più generale - sul modo in cui i dati sono preparati.

Se per certezza si sceglie come modello un sistema di equazioni differenziali lineari (LDE), allora dalla struttura dell'ACF sembra che si possa giudicare la quantità di LDE necessarie per una descrizione più o meno adeguata. Selezionare i coefficienti (e cercare di descrivere la loro deriva) è una questione di tecnica. Tuttavia, dopo aver contemplato per un po' il comportamento di ACF nel tempo (nel visualizzatore), si comincia a capire che il numero di DT nel modello deve essere variabile. Oppure, allo stesso modo, i modelli dovranno essere cambiati al volo.

A proposito, questo particolare frammento per l'immagine è stato scelto perché contiene sia una trama di stazionarietà ben definita (cosa abbastanza rara) che (apparentemente) una catastrofe (colonna).

P.S. Due catastrofi è più esatto - ci sono due salti.

 

Grazie, ho capito tutto, e tutti i pensieri (idee) sembrano convergere.

Procedendo dalla mia analisi e dalla tua immagine di ACF, si può approssimare con la seguente espressione (p. 184-185. file Tikhonov V.I. allegato)

Sono riuscito a risolvere un problema avendo ACF per trarne i parametri (omega, alfa e N).

Allego il file, solo in matcad, non ricordo se lo avete. In caso contrario, posterò qui le formule con le spiegazioni necessarie.

I miei pensieri sulla ricerca.

Sembra sbagliato cercare la stazionarietà su barre orarie, perché è una trasformazione non lineare dal flusso di input (considero il flusso di tick come input). Se prendiamo le barre (per ridurre il volume delle informazioni analizzate), allora il flusso di input dovrebbe essere diviso in barre non per tempo ma per il numero di tick in una barra (Volume=const) IMHO. Finora ho scelto i minuti come il minore dei due mali. Non considero timeframe più alti perché più grande è il timeframe, maggiore è la non linearità introdotta. Se ho bisogno di una settimana, regolo semplicemente la lunghezza del campionamento analizzato, scegliendo 7200.

Assicurati di seguire lo stesso schema, quando Y è (Close[i]-Close[i+1])/(time[i]-time[i+1]) velocità, a minuti puoi omettere la divisione. Mathemat'ik la chiama, ma io preferisco chiamarla velocità.

Naturalmente anche, ma per l'accelerazione (derivata seconda).

È allora che, come hai detto giustamente, potremo decidere la quantità di DU. Per quanto riguarda "i modelli dovranno cambiare al volo", esattamente dovranno. Solo che ancora questi modelli hanno anche dei parametri e se per rimanere all'interno del lineare (filtraggio Kalman), allora per ogni valore di parametro (diciamo omega) è necessario un filtro diverso. Ho scritto prima, che per risolvere questo problema in testa (per cercare la soluzione ottimale "per tutti i casi") abbiamo bisogno di 10-20 - al limite un numero infinito di filtri. Per allontanarsi da questo, penso che in futuro per rendere i parametri sconosciuti (omega, alfa) nel sistema di controllo, cioè passare a un filtraggio non lineare (a prima vista, vedere il tuo grafico inferiore c'è una zona dove questi parametri obbediscono a una legge lineare è bello). Stratonovich raccomanda di farlo, e questo metodo spesso aiuta a risolvere tali problemi con una precisione accettabile per la pratica.

Per come intendo il termine "precisione accettabile per la pratica", se riesco a sintetizzare 2-3 filtri non lineari che funzionano 2 giorni a settimana, questo mi basta. Il modello funziona - faccio trading; se no, il modello non funziona (non posso prevedere) allora non faccio trading. Poi continuo a studiarlo e introduco un altro modello che funziona con il primo per 2,5 giorni e non 2 giorni, ecc.

Candido, ti prego di elaborare un po' di più i punti "catastrofici". Interessato al tempo, che è prima la catastrofe o l'innesco del punto "sbagliato" "punto di catastrofe :-)".

File:
fjvokxt_yd.zip  1186 kb
teor_model.zip  31 kb
 
Prival:

Sono riuscito a risolvere il problema di avere l'ACF che tira fuori i parametri (omega, alfa e N).

Grazie per i file, darò un'occhiata. Però non ho ancora matcad. E come si fa a combattere gli ACF più difficili, per esempio quelli?

In realtà mi imbarazza ammetterlo, ma sembra che io sia solo un filone del forum :). Ho il mio piano di lavoro, ahimè, da circa la fine dell'estate è praticamente intatto :). Fondamentalmente questo piano ha qualcosa in comune con un compito di definizione della lunghezza di campionamento ottimale, di conseguenza in caso di successo può essere anche il turno del filtro Kalman. Che è purtroppo frutti di questo tema molto interessante andare ancora in armadi, su stoccaggio :)

È sbagliato cercare la stazionarietà sulle barre orarie.

Anche io preferisco le minuzie, è solo che le capacità di compressione dei grafici orizzontali di MT non sono sufficienti.

Assicurati di usare lo stesso schema, quando Y è (Close[i]-Close[i+1])/(time[i]-time[i+1]), a minuti la divisione può essere omessa. Mathemat'ik la chiama, ma io preferisco chiamarla velocità.

Naturalmente anche, ma per l'accelerazione (derivata seconda).

È allora che, come hai detto giustamente, potremo decidere la quantità di DU. Per quanto riguarda "i modelli dovranno cambiare al volo", esattamente dovranno. Solo che ancora questi modelli hanno anche dei parametri e se per rimanere all'interno del lineare (filtraggio Kalman), allora per ogni valore di parametro (diciamo omega) è necessario un filtro diverso. Ho scritto prima, che per risolvere questo problema in testa (per cercare la soluzione ottimale "per tutti i casi") abbiamo bisogno di 10-20 - al limite un numero infinito di filtri. Per allontanarsi da questo, penso che in futuro per portare i parametri sconosciuti (omega, alfa) nel sistema di controllo, cioè passare a un filtraggio non lineare (a prima vista, vedere il tuo grafico inferiore c'è una zona dove questi parametri obbediscono a una legge lineare è bello). Stratonovich raccomanda di farlo, e questo metodo spesso aiuta a risolvere tali problemi con una precisione accettabile per la pratica.

Per come intendo il termine "precisione accettabile per la pratica", se riesco a sintetizzare 2-3 filtri non lineari che funzionano 2 giorni alla settimana, questo mi basta. Il modello funziona - faccio trading; se no, il modello non funziona (non posso prevedere) allora non faccio trading. Poi continuo a studiarlo e introduco un altro modello che funziona con il primo per 2,5 giorni e non 2 giorni, ecc.

Credo che l'idea sia più o meno compresa.

Candido, ti prego di elaborare un po' di più i punti "catastrofici". Interessato al tempo, che è prima la catastrofe o l'innesco del punto "sbagliato" "punto di catastrofe :-)".


Temo che non sia una catastrofe del mercato, ma una catastrofe del modello, e direttamente legata alla lunghezza fissa del campione per la regressione. L'effetto di saltare i parametri di regressione scorrevole è stato notato fin dallo sviluppo del Grande Tema del Forum Parallelo (GTPF) :). Anche se alla fine è ovviamente legato ai processi di mercato. Ma io do lo stesso un'immagine. Posso inviarvi anche l'indicatore.

 

Candid

Un po' più di dettagli, con le frecce dove sono tutte queste catastrofi. Penso solo che questo sia molto importante, se il parametro si attiva prima è un'opportunità per prevedere l'inizio di una catastrofe dei prezzi. Se lo fa prima, allora il campione lungo può essere affrontato. Questa è la seconda volta che fai riferimento a un forum parallelo, se puoi darmi un link. (Potrei essermi perso qualcosa). Non si può rileggere tutto.

 
Prival:

Candid

Un po' più di dettagli, con le frecce dove sono tutte queste catastrofi. Penso solo che questo sia molto importante, se il parametro viene attivato prima è possibile prevedere la catastrofe dei prezzi. Se sì prima, allora il campionamento lungo può essere affrontato. Questa è la seconda volta che fai riferimento a un forum parallelo, se puoi darmi il link. (Potrei essermi perso qualcosa). Non si può rileggere tutto.


Sostituita l'immagine in un post precedente. Per quanto riguarda il WTPF (The Great Parallel Forum Thread :), è abbastanza difficile rileggerlo, sia per la sua lunghezza sia perché è estremamente disseminato.
 

Potrei aggiungere riguardo alla previsione. Ho anche notato che una doppia "catastrofe" precede un'impennata dei prezzi, e ne ho guardati altri. Questi sono eventi abbastanza rari e, ahimè, l'impennata dei prezzi dopo di essi non sempre si verifica.

 
lna01:

Potrei aggiungere riguardo alla previsione. Ho anche notato che una doppia "catastrofe" precede un'impennata dei prezzi, e ne ho guardati altri. Questi sono eventi abbastanza rari e, ahimè, l'impennata dei prezzi dopo di essi non sempre si verifica.


Bisognerebbe guardare a timeframes più piccoli (in generale, in più dettagli), i punti sono molto interessanti. E non necessariamente un doppio salto del "difficile punto ACF". Per qualche ragione penso che un singolo cambiamento (netto) indichi anche un cambiamento nel processo.
 
lna01:

Non riesco ancora a capire come si può lavorare con un indicatore che mostra sempre uno all'estremità destra del grafico? Qual è il suo potenziale predittivo - anche se è calcolato secondo una formula perfettamente corretta? Mi scuso se questa è una domanda idiota...
Motivazione: