una strategia di trading basata sulla teoria dell'onda di Elliott - pagina 227

 
Beh, forse tra noi casalinghe puoi dirmi di cosa si tratta? <br / translate="no"> Non deve essere necessariamente sul processo di Markov, si può semplicemente parlare di catene di Markov.
Si può anche parlare di catene.


È abbastanza lungo, e non sono bravo a raccontarlo in modo carino. Sulle catene di Markov, le catene e i processi che queste catene descrivono, ho letto nel libro "Probabilistic Parts of Mathematics" a cura di Maximov, "Course of Probability Theory" di Gnedenko. Non posso dire di me stesso che sono diventato un guru in questo campo. Piuttosto, mi ricordo di un cane che capisce tutto ma non può dire nulla. :о)

Inoltre non mi piace molto la spiegazione di una casalinga su "che cos'è". Per esempio, prendiamo una definizione da Wikipedia (abbastanza per le casalinghe :o):


Una catena di Markov (CM) è una sequenza di eventi casuali con un numero finito o infinito contato di risultati, caratterizzata dalla proprietà che a un presente fisso il futuro è indipendente dal passato. Porta il nome di A. A. Markov (Sr.).


Sembra essere corretto, tuttavia, la formulazione più precisa è un po' diversa:


Una sequenza di prove forma una CM se la probabilità condizionata in s+1 prove (s=1,2,3,,,,) di un evento A(i)[s+1] i=1,2,...k dipende solo da quale evento si è verificato nella prova s-esima e non cambia dall'informazione additiva su quali eventi si sono verificati nelle prove precedenti.


Apparentemente, per questo motivo, i processi che possono essere descritti da tali catene sono chiamati processi con memoria breve. Viene anche introdotta un'altra definizione, basata sulla nozione di stato del sistema.

Yuri, abbi pietà di me. Non voglio affatto riscrivere definizioni e conclusioni. Il CM non è una mia invenzione e non ho ancora raggiunto il livello appropriato di incompetenza per raccontare tutto con parole mie. Potresti non riconoscere le catene di Markov allora :o).

Quando leggerete in fonti competenti (al contrario della mia narrazione), allora forse le mie "pratiche" saranno utili:

(1) Ho scelto un canale come stato del sistema piuttosto che valori di prezzo specifici o la differenza tra i prezzi
(2) Ho preso le probabilità di alcune caratteristiche del canale per fare una matrice di probabilità di transizione.
(3) Ho preso un cambio di canale come un passo nella matrice
(4) Ho "scelto intuitivamente" il processo della nascita e della morte come processo; non possiamo usare il processo della coda per i nostri scopi, vero?

E ho già dimostrato i risultati del suo uso. :о)
 
Considereremo la classe delle serie temporali stazionarie. Il nostro problema si riduce alla scelta di un modello adatto a descrivere il comportamento dei residui "casuali" X[j] della serie temporale studiata Y[j], ottenuti dopo l'eliminazione della sua componente non casuale (se esiste) dalla serie temporale originale. Poiché qui descriviamo il comportamento dei residui casuali, denotiamo la serie temporale simulata con X[j], e assumiamo che per tutti i j la sua aspettativa matematica sia zero. Altrimenti, dobbiamo centrare la serie originale. La centratura e la residualizzazione possono essere fatte per le serie temporali caratteristiche del mercato Forex (contenenti solo le tendenze stocastiche) costruendo la serie della prima differenza
X[j]=Y[j]-Y[j-k], dove k può essere da 1 a n a seconda dello scopo dell'esperimento.


Modello di autoregressione del 1° ordine AR(1) (processo di Markov).

Questo modello è una semplice variante del processo autoregressivo di
X[j]=SUM{a[k]*X[j-k]}+sigma[j], dove la somma viene effettuata per tutti i k=1...infinito,
quando tutti i coefficienti tranne il primo sono uguali a zero. Di conseguenza, può essere definito dall'espressione
X[j]=a*X[j-1]+sigma[j], (1)
dove a&#61485;è un coefficiente numerico non superiore a uno in valore assoluto (|a| < 1), e sigma[j], una sequenza di variabili casuali che forma rumore bianco. Così X[j] dipende da sigma[j] e da tutti i sigma precedenti, ma è indipendente dai futuri valori di sigma. Di conseguenza, nell'equazione sigma[j], è indipendente da X[j-1] e dai valori precedenti di X. Per questo motivo, sigma[j] è chiamato un'innovazione (aggiornamento).
Le sequenze X che soddisfano la relazione (1) sono spesso chiamate anche processi markoviani. Questo significa che
1. L'aspettativa del processo M è identicamente zero M=0.
2. Il coefficiente di autocorrelazione r tra i membri della serie, distanziati di k passi, è uguale a r=a^k.

Le caratteristiche principali del processo di autoregressione del 1° ordine sono le seguenti.

La condizione di stazionarietà della serie è determinata dal requisito del coefficiente a:
|a|<1
La funzione di autocorrelazione del processo di Markov è definita dalla seguente relazione:
r(t)=a^t ,
cioè il valore di a determina il valore della correlazione tra due membri vicini della serie X[j]. Possiamo vedere che il grado di tenuta della correlazione tra i termini della sequenza (1) diminuisce esponenzialmente man mano che si allontanano l'uno dall'altro nel tempo.
La densità spettrale del processo di Markov (1) può essere calcolata usando il noto tipo di funzione di autocorrelazione:
p(w)=2sigma0^2/(2+a^2-2a*cos(2Pi*w))
Se il valore del parametro a è vicino a 1, i valori adiacenti della serie X[j] sono vicini tra loro in grandezza, la funzione di autocorrelazione diminuisce esponenzialmente pur rimanendo positiva e lo spettro è dominato dalle basse frequenze, il che significa che la distanza media tra i picchi della serie X[j] è abbastanza grande. Al valore del parametro a vicino a -1, la serie oscilla rapidamente (le alte frequenze predominano nello spettro) e il grafico della funzione di autocorrelazione diminuisce esponenzialmente a zero con un cambiamento alternato di segno.

Dopo aver identificato il modello, cioè aver determinato i suoi parametri (in questo caso è a)
possiamo costruire una previsione di un passo avanti:
Y[j+1]=Y[j]+a*X[j].

Questo è tutto.

Yura, ora ho una richiesta da farti. Implementare in Mathcad l'algoritmo mostrato in fig. sotto e mostrare il FAC ottenuto da TF per le minuzie EURUSD per qualche anno.

 
<br / translate="no"> Quando letto in fonti competenti (al contrario della mia narrazione), forse le mie "pratiche" saranno utili:

(1) Ho scelto il canale come stato del sistema piuttosto che valori di prezzo specifici o la differenza tra i prezzi
(2) Ho preso le probabilità di alcune caratteristiche del canale per fare una matrice di probabilità di transizione.
(3) Ho preso un cambio di canale come un passo nella matrice
(4) Ho "scelto intuitivamente" il processo della nascita e della morte come processo; non possiamo usare il processo della coda per i nostri scopi, vero?

E ho già dimostrato i risultati del suo uso. :о)


Tutto è chiaro qui, tranne il punto 2). Probabilmente considerata una semplice cosa banale, o forse anche un know-how.
Sul punto 4) (ho già tormentato solandr con questa domanda) - "processo di nascita e morte" è stato definito sul trattamento statistico del punto 3) o da alcune considerazioni teoriche generali?
 
Yurixx 22.01.07 16:24
Beh, forse tra noi casalinghe puoi dirmi di cosa si tratta?
Non deve essere necessariamente un processo di Markov, si può semplicemente parlare di catene di Markov.
Si può anche parlare di catene.

Il modo più semplice è usare un esempio.
Il processo markoviano più semplice è una moneta ordinaria.
Il lato su cui cade una moneta è indipendente dallo stato precedente.
Si dice che un processo come una moneta ha la proprietà di essere markoviano,
Il che significa che non ha memoria del passato. Una serie di lanci di monete sarebbe chiamata
una catena di Markov. Più precisamente, non i lanci stessi, ma le probabilità.
Ci sono processi di Markov più complicati, ce ne sono molti diversi.
Processi di Markov. Ci sono alcuni che "ricordano" lo stato precedente, ma
ma non ricordare quello preesistente, ecc...
Beh, in generale, è una semplice storia.
La matematica lì, in alcuni punti, è abbastanza confusa e non ovvia, e le formule sono enormi.
 
Yurixx 22.01.07 16:24
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.

La cosa più semplice da fare è usare un esempio.
Il processo di Markov più semplice è una moneta ordinaria.
Il modo in cui una moneta cade è indipendente dallo stato precedente.
Si dice che un processo come una moneta ha la proprietà di essere markoviano,
cioè non ricorda il passato.


Per quanto ricordo la definizione di un processo di Markov dal post precedente (A(i)[s+1] dipende solo da A[s]) Il lancio di una moneta non può essere un processo di Markov, poiché la probabilità che l'aquila cada ad ogni lancio non dipende da nessuna prova precedente.
 
Al neutrone

<br / translate="no"> Il nostro compito è quello di scegliere un modello adatto a descrivere il comportamento dei residui "casuali" X[j] della serie temporale indagata Y[j], ottenuti dopo aver eliminato dalla serie temporale originale la sua componente non casuale (se presente).


Sergey, spero nella tua pazienza. Spiegatemi (è molto probabile che mi sia sfuggito qualcosa), e perché abbiamo bisogno di un modello per descrivere i residui casuali, e cos'è l'"eliminazione". E mi sembra che "l'eliminazione" dei residui casuali sia intrinsecamente casuale. Che bel colpo di fulmine! :о)

A Rosh


Tutto è chiaro qui, tranne il punto 2). Può essere considerata una semplice cosa banale, o può essere un know-how.


Qui è abbastanza semplice. Ho dovuto definire in qualche modo lo stato del sistema per poter fare delle previsioni. Ho pasticciato a lungo con parametri abbastanza comprensibili: skoe, lunghezza del canale, angolo di pendenza della linea LR. Ma nel corso dell'esperimento sono arrivato alla conclusione che alcuni parametri del canale davano risultati migliori.

E sono arrivato a queste caratteristiche da quanto segue:


Sul punto 4) (ho già tormentato solandr con questa domanda) - "processo di nascita e morte" è stato definito sull'elaborazione statistica del punto 3) o da alcune considerazioni teoriche generali?


OK, sarò onesto con voi. Il mio primo pensiero è stato questo. Prendere la storia, trovare i canali, calcolare le statistiche. Ho finito per abbandonare questo approccio. Come ho scritto prima, ho chiamato il mio metodo analisi evolutiva delle onde frattali (beh, l'ho chiamato così e mi piace). Si basa su "evolutivo" - rielaborato "sotto i canali" di MSP. Così, ho studiato la dinamica di alcune caratteristiche dei canali. Il canale, d'altra parte, non è definito nel mio solito modo. Qui in questo post "grasn 18.01.07 16:11" c'è un'immagine che mostra la forza della connessione tra i campioni. Il canale è dal dato attuale al valore più debole di questa connessione. Una volta che avete trovato un conteggio debole, significa che avete trovato l'origine del canale. Sposto il "cursore" in questo punto e inizio a monitorare, come dice North Wind, la qualità del processo.

La dinamica di alcune caratteristiche all'interno del canale è il processo di nascita e morte del canale (almeno nel mio caso è così).
 
Una volta, molte pagine fa, ho discusso con il fondatore del thread sulla teoria di Elliott e lui si è rifiutato di articolare la sua essenza in poche parole, citando lo spessore dei libri.

Ora, grazie a Neutron, grasn e Northwind, è chiaramente dimostrato come si fa.

Anche se la mia età non mi permette più di frequentare la scuola, ti sono molto grato per il tuo desiderio di insegnarmi un po' di saggezza, e la lezione che mi hai dato, Sergey, la farò sicuramente.

Prometto e giuro solennemente. :-)
 
Rosh 22.01.07 19:33
Per quanto ricordo la definizione di un processo di Markov dal post precedente (A(i)[s+1] dipende solo da A[s]) Il lancio di una moneta non può essere un processo di Markov, poiché la probabilità che l'aquila cada ad ogni lancio non dipende da nessuna prova precedente.

Mi piacerebbe discutere questo punto in modo più dettagliato, ma purtroppo non c'è assolutamente
tempo. Dirò solo che la signora Wentzel E.S. nel suo libro di testo afferma
lo stesso, la moneta è un processo markoviano, c'è anche una prova.
A proposito, ha un processo markoviano (un processo senza conseguenze) - se per ogni momento
la probabilità di qualsiasi stato del sistema nel futuro dipende solo dallo stato
del sistema al momento presente, e non dipende da come il sistema è arrivato a
questo stato.
 
Rosh 22.01.07 19:33
Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.

Mi piacerebbe discutere questo punto in modo più dettagliato, ma purtroppo non c'è assolutamente
tempo. Dirò solo che la signora Wentzel E.S. nel suo libro di testo afferma
lo stesso, la moneta è un processo markoviano, c'è anche una prova.
A proposito, ha un processo markoviano (un processo senza conseguenze) - se per ogni momento
la probabilità di qualsiasi stato del sistema nel futuro dipende solo dallo stato
del sistema al momento presente, e non dipende da come il sistema è arrivato a
questo stato.


Sì, dove ci sono donne, c'è sempre confusione. Stavo solo scherzando. :о) È un semplice esempio tratto da un libro di testo edito da Maximov: un giocatore gioca un gioco che consiste di parti. La probabilità di vincere la prossima partita è uguale a p, se la partita precedente è vinta, e p1, se la partita precedente è persa. Stato E1 - il prossimo gioco è vinto, E2 - il gioco è perso.

Il vagare attraverso gli stati E1 ed E2 è descritto da una matrice di probabilità di transizione:
|(p) (1-p)|
|(p1) (1-p1)|
 
Ecco, un'altra cosa :) Si può anche dare una spiegazione del perché vincere dopo aver perso ha una probabilità diversa rispetto a vincere dopo aver vinto.
"Gli uomini non piangono, gli uomini si arrabbiano" :)
Motivazione: