Non sono affari di Mashka! - pagina 5

 
Neutron:

Questo è ciò che si ottiene se gli ingressi dell'adder si immergono non ai mashup in ritardo, ma a se stessi :-) cioè alla derivata prima dell'MA ideale.

L'unica cosa che rimane è trovare un MA ideale. Prova il vero Djuric. Non l'ideale, ma comunque vicino. Ed è anche abbastanza liscio.

 
Neutron:

Oh, che interessante!

Questo è ciò che si ottiene, se si immergono gli ingressi dell'adder non ai mascheroni in ritardo, ma a se stesso :-) cioè alla derivata prima della MA ideale.

E perché nessuno chiede di specificare? :) È tutto chiaro per tutti?

Non ci sono mash-up perfetti sulla barra attuale. Potrebbero davvero esserci le loro previsioni. Stiamo parlando di loro?

 
Neutron:

a Vinin

Datemi i vostri pensieri - ci sarà un seguito!


Sono un lettore da molto tempo, purtroppo. Ecco perché non posso offrirti nulla. Ma il tema è davvero interessante. Chiedo scusa.

 
lna01:
Neutrone:

Oh, che interessante!

Questo è ciò che si ottiene, se si immergono gli ingressi dell'adder non ai mascherini ritardati, ma a se stesso :-) cioè alla derivata prima del MA ideale.

E perché nessuno chiede di specificare? :) È tutto chiaro per tutti?

Non ci sono Ma ideali sulla barra attuale. Ci possono essere davvero le loro previsioni. Stiamo parlando di loro?

No, sto parlando della previsione dell'ampiezza della finestra di smoothing per l'onda perfetta. Lasciate che vi ricordi che è davvero traballante sul bordo destro di BP con una tipica zona di smoothing proprio della larghezza di quella finestra.


Ho trovato un errore nel codice - ho saltato una linea senza correggere l'indice, come risultato la previsione è stata costruita usando i pesi contati per la finestra indietro moltiplicati per il valore corrente di Ma ideale. Ecco il risultato corretto (vedi fig.). I pesi sono moltiplicati per il МАWA (intendo la sua derivata) una finestra prima.


Questa è una previsione per 5 barre in avanti. Come ci si potrebbe aspettare, la curva di previsione si è sgretolata con successo già all'inizio. Aumentando il numero di equazioni oltre 2 (ho controllato fino a cento) non si ottengono miglioramenti significativi.


P.S. Sono sollevato!


a Vinin

Io, purtroppo, sono diventato un lettore molto tempo fa. Ecco perché non posso offrirti nulla. E l'argomento è davvero interessante. Chiedo scusa.

Bene, come caricare i neuroni per questo caso. Non è debole?

Improvvisamente, la non linearità a priori della NS nata in almeno due strati nascosti farà un miracolo...

 
Neutron:

a Vinin.

Sono un lettore da molto tempo, purtroppo. Ecco perché non posso offrirti nulla. Ma l'argomento è davvero interessante. Mi scusi.

Bene, come caricare i neuroni per questo caso. Non è debole?

E se la non linearità a priori del NS, nata in almeno due strati nascosti, potesse fare un miracolo...

Certo che è possibile fare un neurone. Ma non è solo una questione di neuroni. È necessario definire gli ingressi, e non lo vedo ancora.

 

Non c'è niente di male nelle iscrizioni. La cosa principale è determinare l'intervallo di confidenza per il trading.

A volte il sistema commercia per sei mesi e poi perde bruscamente denaro, ma a volte anche prima....

 
Neutron:

Ho trovato un errore nel codice - ho saltato una linea senza correggere l'indice, di conseguenza, la previsione era basata sui pesi calcolati una finestra fa, moltiplicati per il valore attuale della MA ideale. Ecco il risultato corretto (vedi fig.). I pesi sono moltiplicati per il МАWA (cioè la sua derivata) una finestra prima.


Questa è una previsione per 5 barre in avanti. Come ci si potrebbe aspettare, la curva di previsione si è sgretolata con successo già all'inizio. Aumentare il numero di equazioni oltre 2 (ho controllato fino a cento) non dà alcun miglioramento significativo.


Seryoga, questa è una pessima previsione, i metodi autocorr-i fanno una previsione leggermente migliore. Avrete errori enormi quando andrete alla BP

 
grasn:

Seryoga, questa è una pessima previsione, i metodi autocorr-i fanno una previsione leggermente migliore. Avrete errori enormi quando andrete alla BP

Se vi riferite a modelli autoregressivi lineari della forma:

allora mi permetto di dissentire. Il punto è che sto risolvendo quasi lo stesso problema (confrontare: x[n+1]=SUM{w[i]*x[n-i]}, dove i=0...P-1), l'unica differenza è che i pesi sotto il segno della somma sono determinati in modo adattivo alla profondità P, mentre nella forma classica - integralmente su una scala maggiore (per l'insieme statistico quando si calcolano i coefficienti di correlazione). Il fatto che non ci sia alcun risultato, quindi rafforza solo il mio desiderio di passare all'analisi con metodi non lineari, soprattutto utilizzando NS.

Per quanto riguarda il caso dell'estrapolazione perfetta di Mach (hai citato un grafico), penso che si possa aumentare significativamente l'orizzonte di previsione con la conservazione delle derivate di n-ordine da LPF, dove n dovrebbe essere maggiore di 2. Nel mio caso solo la prima derivata è stata memorizzata, ecco perché quando l'orizzonte è stato aumentato oltre 2-3 barre la serie ha cominciato a sgretolarsi.

 
Neutron:
grasn:

Seryoga, questa è una pessima previsione, i metodi autocorr-i fanno una previsione leggermente migliore. Avrete errori enormi quando andrete alla BP

Se vi riferite a modelli autoregressivi lineari della forma:

allora mi permetto di dissentire. Il punto è che sto risolvendo quasi lo stesso problema (confrontare: x[n+1]=SUM{w[i]*x[n-i]}, dove i=0...P-1), l'unica differenza è che i pesi sotto il segno della somma sono determinati in modo adattivo alla profondità P, mentre nella forma classica - integralmente su una scala maggiore (per l'insieme statistico quando si calcolano i coefficienti di correlazione). Il fatto che non ci sia alcun risultato, quindi rafforza solo il mio desiderio di passare all'analisi con metodi non lineari, soprattutto utilizzando NS.

Per quanto riguarda il caso dell'estrapolazione perfetta di Mach (hai citato un grafico), penso che si possa aumentare significativamente l'orizzonte di previsione con la conservazione delle derivate di n-ordine da LPF, dove n dovrebbe essere maggiore di 2. Nel mio caso solo la prima derivata è conservata, ecco perché quando l'orizzonte diventa più alto di 2-3 barre la serie comincia a cadere a pezzi.




Serega, e dove solo l'addizionatore a coefficienti non viene utilizzato. Quindi, si può sostenere che avete una rete neurale, anche se piccola. Confrontiamo il tuo modello e il mio, dobbiamo solo pensare ai criteri. Io userò predict() in MatCAD, e voi userete il vostro sistema. Abbiamo lo stesso ambiente di sviluppo, quindi definiamo il file di dati (preventivo, processo sotto test - chiusura, media o altro..., area di test). Noi testiamo solo la previsione della MA, la MA stessa è selezionata in modo adattivo - non importa come, solo il risultato finale è importante. Lo testiamo su ogni campione, aumentando così la validità statistica (sembra che ci siano abbastanza dati)


Ma il mio orizzonte di previsione è selezionato in modo adattivo e prende valori entro i limiti precedentemente specificati. Ecco un esempio della mia previsione MA per quattro letture in avanti:


[nessun errore].


Vogliamo provare a fare un confronto? E se è così, quali sono i vostri suggerimenti per i criteri, preferibilmente dovrebbe essere una cifra corrispondente a un conteggio, così penso che sarà più facile da confrontare.


PS: fissiamo il tempo per il test non troppo rigido, penso che anche tu abbia un sacco di cose diverse da fare.

PS2: Per il test, potete scambiarvi i file per posta, o potete prendere per buona la vostra parola :o)

 

Ok!

Ho capito bene che entrambi stampiamo un file relativamente alla curva liscia (MA) e facciamo una previsione per N letture in avanti? Se è così, possiamo valutare il risultato nel modo seguente: raccogliere le statistiche delle previsioni (1000 risultati) per 10 letture in avanti (per esempio) e costruire un campo di previsione in coordinate cartesiane, mettendo il valore vero MA sull'asse delle ascisse e la sua previsione - sull'asse delle ordinate.


Sulla nuvola ottenuta con il metodo dei minimi quadrati tracciamo una linea retta e quel metodo con la tangente della pendenza di questa linea sarà più vicina a 1 - più ripida!


P.S. E riguardo al piccolo neurone hai colpito nel segno come al solito :-)

Motivazione: