un processo completamente casuale e il FOREX. - pagina 5

 
D.Will писал (а):

Ho deciso di ridurre il determinismo del generatore di numeri pseudo-casuali mescolando la serie di numeri casuali più volte.

% mischia
per=1:1:10000
i1 = fix(rand*N)+1; ))))
i2 = fix(rand*N)+1; ) ))
c=r(i1);
r(i1)=r(i2);
r(i2)=c;

Se guardate sopra ho dato un esempio in cui ho mischiato l'intera sequenza diverse volte e ho visualizzato sia una che l'altra sequenza.




Se mischiato così - su un otto senza due. Dove sono i candelabri signori?
 
Korey:
D.Will ha scritto (a):



Ha deciso di ridurre il determinismo del generatore di numeri pseudo-casuali mescolando una serie di numeri casuali più volte.



% mischia

per=1:1:10000

i1 = fix(rand*N)+1; ))))

i2 = fix(rand*N)+1; ) ))

c=r(i1);

r(i1)=r(i2);

r(i2)=c;



Se guardate sopra ho dato un esempio in cui ho mischiato l'intera sequenza diverse volte e ho visualizzato sia una che l'altra sequenza.









Se mischiato così - su un otto senza due. Dove sono i candelabri signori?
Cosa c'è di sbagliato qui? Ha selezionato a caso due indici e ne ha scambiato il contenuto?

fix(rand*N)+1 restituisce un intero da 1 a N. In Matlab, l'indicizzazione va da 1.

fanculo
 
rand scatta la sequenza in modo sequenziale. Gli indici sono presi come una coppia di numeri pseudo-generatori adiacenti,
e sono noti per essere correlati, cioè si trovano all'interno di un periodo .
Provate ad eseguire un numero casuale di chiamate rand tra l'ottenimento degli indici per rompere la periodicità.
 
Korey:
rand scatta la sequenza in modo sequenziale. Gli indici sono presi come una coppia di numeri pseudo-generatori adiacenti,

e sono noti per essere correlati, cioè si trovano nel periodo m.

Prova ad eseguire un numero casuale di chiamate rand tra l'ottenimento di indici per rompere la periodicità m.

Di questo abbiamo già discusso.

lo scopo di questo preset è un altro.
Andrebbe bene se il cambiamento fosse additivo sotto forma di somma a questa fila di altri numeri.
Ma la natura del cambiamento è completamente diversa.

Se credete che la correlazione in rand con la permutazione sia così grande, un tale generatore non ha alcun valore.
hai capito?

Anche se è pseudo-casuale, ciò non significa che si debba fare un inserimento paranoico di chiamate casuali da un numero casuale.

tutte quelle chiamate avranno anche una distribuzione correlata al PSG.

Il fatto è che mescolando i dati, la natura della sequenza rimane la stessa.

Di quale correlazione stai parlando????????
 
Specialmente per Korey

chiudere tutti;

N=1000;
r=NORMRND(0,0.0077,1,N);

r1=r;

per i=1:1:100000
i1 = fix(rand*N)+1
per j=1:1:1000
rand;
fine
i2 = fix(rand*N)+1
c=r(i1);
r(i1)=r(i2);
r(i2)=c;
fine;

figura;
%r=r-05;
for i=2:1:length(r)
r(i)=r(i)+r(i-1);
r1(i)=r1(i)+r1(i-1);
end

grid on;

plot(r);
figure;
plot(r1);



Before


Dopo


È ancora più figo =))






 
a D.Will

Il modo in cui si forma una serie casuale è molto simile all'algoritmo per gli oscillatori lineari congruenti. È stato dimostrato da tempo che questo algoritmo (e le sue varie modifiche) genera tutt'altro che una serie casuale. Questo è vero per la generazione di una sequenza "nel suo insieme" e per il generatore di dati casuali stesso(un'osservazione: se non sbaglio, mathLab ha implementato un tale algoritmo, ma questo è facile da controllare). Inoltre, un computer può fare tutto tranne una cosa: generare una sequenza casuale. L'uso delle reti neurali è promettente in questa direzione, e la gente riesce a ottenere con l'aiuto delle NS, diciamo, "variabili casuali massimamente provate" e per una società a difendere ogni sorta di tesi di dottorato intelligente. I modelli di previsione autoregressivi funzionano bene (nel senso di statisticamente bene) su tali serie, si può provare e assicurarsi.

 

Correlazione, esattamente correlazione.

J. Forsyth. Machine Methods for Mathematical Computing
Knuth D.E. The Art of Programming. Vol. 2, sembra.
In generale, i generatori di sequenze casuali standard sono stati riconosciuti da tempo come inadatti, se è necessario scriverne di propri.

 
grasn:
a D.Will


Il modo in cui si genera una serie casuale è molto simile all'algoritmo
per i generatori lineari congruenti. È stato dimostrato da tempo che questo algoritmo (e i suoi
diverse modifiche) forma tutt'altro che una serie casuale. Questo
riguarda la generazione di una sequenza "nel suo insieme" e il generatore di dati casuali stesso. Più
Inoltre, il computer può fare tutto tranne una cosa, cioè, generare un'immagine casuale
serie. Promettente in questa direzione è l'uso di reti neurali e
le persone riescono a ottenere, diciamo, "il massimo provato
variabili casuali" e nel processo difendere ogni sorta di tesi di dottorato intelligenti. Su tale
I modelli autoregressivi funzionano bene (nel senso di statisticamente bene).
previsioni, potete provare e vedere voi stessi.





Avete un link? Dovete avere reti neurali con un comportamento caotico.
Autoregressivo che y(n+1)=a0*y(n)+b.noise. come sono buoni esattamente?
y(n+1)=a0*y(n)+a1*y(n-1) .... a5*y(n-5) + b.noise risulta in un neurone lineare + rumore. cosa c'è di buono?


A proposito, la sua affermazione significa che il processo di cui sopra può essere previsto?
 

In realtà volevo dire quanto segue, suppongo che k sia il numero di cicli:

i1 = fix(rand*N)+1
k=fix(rand*100000)+1
per j=1:1:k
rand;
fine
i2 = fix(rand*N)+1
c=r(i1);
r(i1)=r(i2);
r(i2)=c;
fine;

 
D.Will писал (а):
grasn:
a D.Will


Il modo in cui si genera una serie casuale è molto simile all'algoritmo
per i generatori lineari congruenti. È stato dimostrato da tempo che questo algoritmo (e i loro
diverse modifiche) forma tutt'altro che una serie casuale. Questo
riguarda la generazione di una sequenza "nel suo insieme" e il generatore di dati casuali stesso. Più
Inoltre, il computer può fare tutto tranne una cosa, cioè, generare un'immagine casuale
serie. Promettente in questa direzione è l'uso di reti neurali e
le persone riescono a ottenere, diciamo, "il massimo provato
variabili casuali" e nel processo difendere ogni sorta di tesi di dottorato intelligenti. Su tale
I modelli autoregressivi funzionano bene (nel senso di statisticamente bene).
previsioni, potete provare e vedere voi stessi.





Hai un link? Devono essere reti neurali con comportamento caotico.
Autoregressivi che y(n+1)=a0*y(n)+b.noise. come sono buoni esattamente?
y(n+1)=a0*y(n)+a1*y(n-1) .... a5*y(n-5) + b.noise risulta in un neurone lineare + rumore. cosa c'è di buono?


A proposito, la sua affermazione significa che il processo di cui sopra può essere previsto?

Mi è stato dato il materiale per la conoscenza, che si chiama nelle mani. Ma non è perché tutto è segreto, penso, è possibile trovare in Internet.

A proposito, la sua affermazione significa che il processo di cui sopra può essere previsto?

Pensavo di aver scritto chiaramente:"I modelli di previsione autoregressivi funzionano bene (nel senso di statisticamente bene) su tali serie, potete provare e vedere voi stessi".

Ancora una volta. Molto ben previsto (statisticamente) dai modelli AR, provate a convincervi. A mio modesto parere - una miseria per la vostra generazione. È un modello? Lei stesso ha giustamente sottolineato che non è un modello. Prima di tutto, create un modello. Prima di tutto, basta inventare una condizione per cui il "prezzo" è garantito per non essere negativo sotto qualsiasi condizione iniziale - capirete che non è così semplice. E indagate, e quello che state facendo ora è una stronzata nel senso letterale del termine. Ci sono molti processi, sia naturali che tecnici, che assomigliano alle citazioni. Puoi facilmente ottenere una serie di PI che assomigliano alle quotazioni con Fibo, livelli e altri attributi.

PS: Se volete trovare lo gnomone del fenomeno, allora - fractals!!!!. :о)

Motivazione: