Galateo del mercato o buone maniere in un campo minato - pagina 80

 
gpwr писал(а) >>

Perché c'è una dispersione statistica vicino ai cerchi blu? Se i pesi partono da zero, non ci dovrebbe essere dispersione statistica.

Il punto è che non sto generando statistiche per lo stesso campione di allenamento, ma sto spostando un campione alla volta durante ogni ciclo. Pertanto, i risultati dell'allenamento non coincidono tra loro. Non ricordo perché l'ho fatto, ma non cambia l'essenza. Apparentemente, volevo mostrare i processi quasi-stazionari nel mercato e riflettere la loro influenza sulla velocità di apprendimento.

Ecco come appaiono i risultati quando si fa la media di 10 esperimenti sullo stesso campione di allenamento (fig. a sinistra):

Si può vedere che non c'è variazione statistica per i pesi con inizializzazione zero.

La figura a destra si basa su un'architettura di rete con 12 ingressi, 5 neuroni nello strato nascosto e 1 neurone in uscita e con un campione di allenamento di 120 campioni, cioè è una copia del vostro caso. Le statistiche sono state raccolte da 50 esperimenti numerici indipendenti. Inoltre, tutto funziona correttamente.

Se sono stati utilizzati i prezzi di apertura di EURUSD1h normalizzati dalla loro deviazione standard, la loro media non è uguale a zero. O avete sottratto la media?

No, ho usato la prima differenza di prezzo di apertura come input (pensavo fosse chiaro dal contesto). È chiaro che la media è zero. Prevede l'ampiezza e il segno della prossima differenza.

Per quanto riguarda il teorema, mi è piaciuto. Ma si riferisce alle nostre reti come caso speciale!

Avete dimostrato il caso degenerato per la lunghezza del campione di allenamento che tende all'infinito. Davvero, in questo caso per il vettore di dati di input che rappresenta SV con zero MO otteniamo zero pesi - la migliore previsione per domani per lo SV integrato è il valore attuale oggi! Ma, una volta che prendiamo un campione di allenamento di lunghezza finita, i pesi allenati tenderanno all'equilibrio, minimizzando il quadrato dell'errore. Come esempio per dimostrare questa affermazione, prendiamo il caso di SLAE (lo stesso NS). In questo caso, i pesi sono definiti in modo univoco, l'errore di formazione sul campione di formazione è identicamente uguale a zero (il numero di incognite è uguale al numero di equazioni) e i pesi (coefficienti alle incognite) non sono ovviamente uguali a zero.

 

Qualcosa in questo design non funziona per me:


 
Perché vedete un intervallo di +/-1 sulla scala dell'ascissa? Dovrebbe essere +/-N... Forse hai impostato i limiti +/-1 con forza e ora non riesci a vedere nulla, ma è proprio come nell'immagine.
 

Non credo che sia questo il motivo. Non ho affatto specificato un limite di gamma. Ora è impostato duramente da -N a +N :


Ho il sospetto che sia un difetto di Matkad. Ho già quello nuovo, ma l'ufficio postale oggi non funziona. Sarà in grado di ottenerlo solo domani.

 
paralocus писал(а) >>

Non credo che sia questo il motivo. Non ho affatto specificato un limite di gamma. Ora è impostato duramente da -N a +N :

Ho il sospetto che sia un difetto di Matkad. Ho già quello nuovo, ma l'ufficio postale oggi non funziona. Potrò prenderlo solo domani.

Sto bene:

Tu, mostrami i valori vettoriali. Come, F=... che cos'hai?

 
 

Ahhh. Sapete cosa fare - arrotondare la vostra dif nel ciclo a un intero: dif[i]=trunc(K*(Open[i]-Open[i-1])). Forse non hai 4 cifre nel tuo quoziente originale. Vedi come appare il cofanetto stesso nella tabella.

 

Sì, ha funzionato...

Strano, come mai non ho quattro cifre nel mio quotidiano?


 

Da dove, da dove... Perché hai impostato Matcad per rappresentare i numeri con tre cifre decimali.

Oh, no. Il problema è nel quoziente originale, però. Guardate i dati grezzi.

 
Questo è dovuto alla differenza dei tipi di dati. trunc() imposta semplicemente il valore della prima differenza di quoziente su un tipo intero.
Motivazione: