
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
come è sko meglio di sao (deviazione media assoluta). forsegli estremi sono fuori... qualcosa c'è.
Ho contato le deviazioni da una scala. sko è uscito 12 punti. soo è uscito 6 punti.
Mi chiedo cosa possa significare la grande differenza tra sko e co.
Perché prendersela, la formula è lì. La RMS è effettivamente molto più comune, direi incomparabilmente più comune. Prima di tutto, a causa della semplicità e dell'efficienza computazionale generata dal metodo dei minimi quadrati (LSM). Ecco un semplice esempio. Per ora, presumo che la vostra media sia la stessa di MNC, aritmetica.
Ci sono molte, molte linee. La Grande Enciclopedia Sovietica elettronicamente. Necessità di calcolare la frazione media del numero di spazi nella linea, e uno qualsiasi degli indicatori di dispersione di questa frazione, RMS o la vostra deviazione media modulo da questa media (brevemente lo chiamerò Cheb, poi vi dirò perché.) Ogni passaggio su tutte le linee è costoso, i libri sono su diverse risorse Internet, connessione modem tramite coppia di rame.Così, per calcolare l'RMS un passaggio sarà sufficiente (basta copiare il numero di linee, la somma delle frazioni di spazio e la somma dei quadrati delle frazioni di spazio, da queste quantità conta immediatamente l'RMS), e per Cheb ne servono due (il primo copia il numero di linee e la somma delle frazioni, su di esse considera la media, il secondo copia la quantità di deviazioni assolute dalla media, conta la deviazione Cheb). La differenza nell'intensità del lavoro è di 2 volte.
E così, ovunque ti giri, c'è un cuneo, se qualcosa deve essere fatto con metodi Cheb. Il problema dell'approssimazione di una funzione definita in modo tabellare genera costi di soluzione completamente diversi. Il caso più semplice è sostituire la funzione con una costante. Secondo il MNA, questa è la media aritmetica, che viene trovata da tutti in un solo passaggio sulla tabella dei valori. L'approssimazione con minimizzazione della deviazione assoluta è chiamata approssimazione uniforme, o approssimazione Chebyshev. Si usa per trovare la media mediana che assicura il minimo della somma delle deviazioni assolute da qualsiasi costante. Pensa a come calcolare la mediana. MQL ha una funzione pronta per questo. Quello che fa è che prima dispone tutti gli elementi in ordine crescente. Questo non è lo stesso che trovare la media aritmetica.
E così via. Allo stesso tempo, bisogna essere consapevoli che il LOC distorce le idee normali su un fenomeno. Per esempio, il livello medio dei salari. Le agenzie di statistica ne approfittano riportando i salari medi. Se un'azienda ha 25 impiegati, di cui i primi 5 guadagnano un milione e gli altri 20 guadagnano 50.000, il salario medio aritmetico sarà 6/25=240.000 e la media mediana sarà 50.000.
Oh, giusto. Forse nel trading dovremmo usare la deviazione mediana...
perché non vedo l'utilità della graffa.
Non vedo il senso di usare sko. tutti i valori di deviazione al quadrato. poi calcolare il valore di deviazione mediano al quadrato. poi prendere la radice di esso di nuovo.
come csr è meglio di sao (deviazione media assoluta). forsegli estremi sono fuori... qualcosa c'è.
Ho calcolato le deviazioni dal mach. sko esce 12 punti. soo esce 6 punti.
Mi chiedo cosa possa dirci la grande differenza tra la sko e la co.
Sulla sensibilità dell'RMS alle emissioni. Dopo tutto, le deviazioni delle emissioni hanno un effetto al quadrato, che equivale a un forte aumento del loro peso se si trattasse di una media ponderata.
anzi, non li scarta, ma ne aumenta il peso! in questo senso, sko è peggio di sao.
quindi perché tutti la prendono come punto di riferimento?
abbiamo visto)
Una grande deviazione dello sco dal sao può indicare che ci sono molte emissioni, o che i valori delle deviazioni sono molto diversi, invece di essere tutti quasi uguali.
Anzi, al contrario, non rimandano, ma aumentano il loro peso!
Molto approssimativamente, tutte le statistiche provengono dalla contabilità dell'energia o del lavoro (teoria dei gas). Il che non è del tutto giusto, ma va bene).
L'energia media dei corpi sarebbe Wcp=(M*V1^2/2 + M*V2^2/2+...)/n. Cioè i corpi, per fare il lavoro, devono avere una velocità media Vcp=sqrt(Wcp)/M. Le formule sono equivalenti.
La velocità media non vi darà assolutamente nulla per questi calcoli.
Da qualche parte all'inizio del thread, Alexander ha scritto che il mercato è autosimile. Cioè, ha le stesse proprietà in tempi diversi.
Per scoprirlo, ho preso diverse MA con periodi significativamente diversi, le ho tracciate su TF 1m e ho calcolato le distribuzioni rispetto ad esse. Può essere fatto abbastanza rapidamente nello stesso R.
Se il mercato è autosimile, allora le distribuzioni dovrebbero sovrapporsi quando si scala. Si è scoperto che non è così, le distribuzioni differiscono significativamente, cioè il mercato non è autosimile.
Ne consegue che le strategie che operano su scale temporali diverse non possono essere spostate su un'altra scala, e probabilmente in alcuni casi non possono essere spostate affatto.
La non somiglianza conferma anche che le strategie che operano su diverse scale temporali sono molto diverse nella tecnica. Diciamo che lo scalping, l'intraday, le strategie a breve e medio termine e quelle a lungo termine sono tutte tecniche di trading molto diverse.
Forse è tutto banale, ma non ci avevo pensato prima.
Secondo il thread, la strategia di Alexander è "scambi rari che durano per ore", anche se non lo sappiamo con certezza, dato che avevamo solo una demo davanti a noi.
Le mie attività sono in una diversa scala temporale di trading, e senza autosimilarità del mercato, è una tecnica completamente diversa. In breve, non il mio settore di mercato).
In altre parole: è ridicolo dare consigli ai commercianti di Rolls Royce quando tu stesso stai commerciando crauti. A proposito, è vero anche il contrario.
Mi interessa la questione che hai sollevato. In realtà, il fatto che non c'è sovrapposizione. Ho preso i minuti di EURUSD per due anni e ho deciso di vedere la dipendenza del numero di deviazioni N di una media veloce con il periodo T1 minuti da una lenta con il periodo T2 minuti per il tempo totale Alto in minuti sulla dimensione delle deviazioni d in punti a 4 cifre 0,0001. Per le medie T1 e T2, calcoliamo le frequenze campione della loro differenza nell'intervallo semiaperto [d-0,5, d+0,5] e mettiamo in relazione questa frequenza con d, denotandola con N(d,T1,T2).
Poi contiamo la somma N(d,T1,T2) su tutti i valori incontrati di d e dividiamo N(d,T1,T2) per essa. Così, otteniamo le frequenze relative del campione n(d,T1,T2), la cui somma per qualsiasi coppia T1,T2 è la stessa ed è uguale a 1. Non confrontiamo per due coppie (T1,T2) e (T3,T4), ma confrontiamo tra loro le deviazioni della media Ti dal corso, che è una media con periodo di 0 minuti, il che riduce il numero di calcoli. In realtà, diamo 5 periodi di medie lente in una volta: T1 = 4 T2 = 16 T3 = 64 T4 = 256 T5 = 1024, coprendo periodi da 4 minuti a 17 ore. La media veloce per queste 5 medie lente è una, T0 = 0, il corso stesso. Cioè, raccogliamo le frequenze N(d,Ti,0). Inoltre è meglio seguire la figura. Per l'analisi è stata fatta una tabella in Excel (750 mila righe 94 Mb) https://yadi.sk/d/97QaopiK3QbTv9 (80 Mb), chi vuole - controllarla, forse ho fatto un errore.
Figura 1. Frequenze di deviazione del campione primario nell'intervallo da -350 a +350 punti.
Possiamo vedere la simmetria, quindi sommiamo le frequenze per le deviazioni di segno diverso e diffondiamo la logaritmizzazione sull'asse delle ascisse. Aumentiamo anche tutte le frequenze di 1 per escludere problemi con il calcolo dei logaritmi. Otteniamo la Fig. 2. Avendo calcolato le somme delle frequenze dei campioni, dividiamo per esse, e così passiamo alle frequenze relative. La fig. 2 mostra già che le curve tendono ad essere equidistanti. Prendiamo anche in considerazione l'ampiezza di oscillazione di ciascuna delle SMA. Usando la legge della radice quadrata (EQC https://www.mql5.com/ru/forum/193378/page16#comment_5116118 formula (2), la scala di oscillazione di una media è proporzionale alla radice del suo periodo) dividere d per Ti^0.5. La prossima Fig. 3 mostra curve ancora più vicine. La seconda volta che applichiamo la ZKC direttamente alle oscillazioni stesse, la loro grandezza risulta essere inversamente proporzionale al quadrato della frequenza. In Fig. 4 l'ultimo passo di riduzione delle distribuzioni alla forma dell'automodello è fatto.
Dimmi, Yuri, che tipo di autosimilarità stavi cercando? Non quello che ho preso io?
fresco, rimane un piccolo passo per te (con le tue capacità) e un grande passo per l'umanità:
Identificare in un ciclo temporale poco profondo le caratteristiche di uno più grande che si forma nello stesso momento, con un leggero spostamento per la previsione. Ed estrapolare il resto ad un ciclo con un periodo diverso. Questa sarebbe la previsione.
A proposito, non ha funzionato per me, ma sono un grullo in matematica e l'ho fatto attraverso la correlazione e la rotazione affine dei cicli (cicli simili possono esistere ad angoli diversi), e le dipendenze lì potrebbero non essere così clementi. :)
O meglio, qualcosa ha funzionato, ma non sono soddisfatto dei risultati... Posso darvi esempi di codice e immagini
Interessato alla questione che hai sollevato. In realtà, il fatto che non c'è sovrapposizione. Ho preso minuti di EURUSD per due anni e ho deciso di vedere la dipendenza del numero di deviazioni N di una media veloce con il periodo T1 minuti da una lenta con il periodo T2 minuti per il tempo totale Alto in minuti sulla dimensione delle deviazioni d in punti a 4 cifre 0,0001. Per le medie T1 e T2, calcoliamo le frequenze campione della loro differenza nell'intervallo semiaperto [d-0,5, d+0,5] e mettiamo in relazione questa frequenza con d, denotandola con N(d,T1,T2).
Poi contiamo la somma N(d,T1,T2) su tutti i valori incontrati di d e dividiamo N(d,T1,T2) per essa. Così, otteniamo le frequenze relative del campione n(d,T1,T2), la cui somma per qualsiasi coppia T1,T2 è la stessa ed è uguale a 1. Non confrontiamo per due coppie (T1,T2) e (T3,T4), ma confrontiamo tra loro le deviazioni della media Ti dal corso, che è una media con periodo di 0 minuti, il che riduce il numero di calcoli. In realtà, diamo 5 periodi di medie lente in una volta: T1 = 4 T2 = 16 T3 = 64 T4 = 256 T5 = 1024, coprendo periodi da 4 minuti a 17 ore. La media veloce per queste 5 medie lente è una, T0 = 0, il tasso stesso. Cioè
raccogliamo le frequenze N(d,Ti,0). Inoltre è meglio seguire la figura. Per l'analisi ho fatto una tabella in Excel (750 mila righe, 94 Mb) https://yadi.sk/d/97QaopiK3QbTv9,(80 Mb) che vuole - controllare, forse ho fatto un errore.
Figura 1. Frequenze del campione primario delle deviazioni nell'intervallo da -350 a +350 punti.
Possiamo vedere la simmetria, quindi sommiamo le frequenze per le deviazioni di segno diverso e applichiamo il logaritmo all'asse delle ascisse. Aumentiamo anche tutte le frequenze di 1 per escludere problemi con il calcolo dei logaritmi. Otteniamo la Fig. 2. Avendo calcolato le somme delle frequenze dei campioni, dividiamo per esse, e così passiamo alle frequenze relative. La fig. 2 mostra già che le curve tendono ad essere equidistanti. Prendiamo anche in considerazione l'ampiezza di oscillazione di ciascuna delle SMA. Usando la legge della radice quadrata (EQC https://www.mql5.com/ru/forum/193378/page16#comment_5116118 formula (2), la scala di oscillazione di una media è proporzionale alla radice del suo periodo) dividere d per Ti^0.5. La prossima Fig. 3 mostra curve ancora più vicine. La seconda volta che applichiamo la ZKC già direttamente alle oscillazioni stesse, la loro grandezza è inversamente proporzionale alla frequenza. In Fig. 4 si fa l'ultimo passo di riduzione delle distribuzioni alla forma di automodello.
Dimmi, Yuri, che tipo di autosimilarità stavi cercando? Non è quello che mi è venuto in mente?
E cosa succede se facciamo tutto questo su tracciati random walk con bacchette di diverso periodo?
Da qualche parte all'inizio del thread, Alexander ha scritto che il mercato è autosimile. Cioè, ha le stesse proprietà in tempi diversi.
Per scoprirlo, ho preso diverse MA con periodi significativamente diversi, le ho tracciate su TF 1m e ho calcolato le distribuzioni rispetto ad esse. Può essere fatto abbastanza rapidamente nello stesso R.
Se il mercato è autosimile, allora le distribuzioni dovrebbero sovrapporsi quando si scala. Si scopre che non è così, le distribuzioni differiscono significativamente, cioè il mercato non è autosimile.
Puoi darmi qualche immagine, come fare il ridimensionamento?