Galateo del mercato o buone maniere in un campo minato - pagina 70

 
Neutron >> :

La varianza è un po' alta però, bisogna aumentare le statistiche.

Forse per una ripartizione oraria di kotir questo è abbastanza normale? Stavo aumentando le statistiche a 1000. Il risultato è un po' più basso. Ora le statistiche d stanno già contando, vi mostrerò quando sarà finito.

 
Neutron >> :

Più precisamente, dall'affermazione del fatto della quasi-instabilità, non segue che il mercato sia completamente efficiente.

Sì, l'ho capito e ha più senso anche per me. Anche se, in un gioco di parole, userei la parola "quasi-inseguito" per dare più tempo agli indovini. :)

 

Ecco le statistiche d su Wiener:


 

Se K=2, è più bello (su Wiener). Ho appena messo K=1 ovunque, perché con esso la ragazza impara meglio e lavora meglio (significativamente)



E questo è per 1000 esperienze kotir (K=1)


 
paralocus писал(а) >>

Ecco le statistiche d su Wiener:

La fig. non sembra molto informativa. Visualizzare solo le tangenti in funzione della dimensionalità dell'input sul campione di allenamento e sul campione di test in una figura, e mettere l'autoscala sull'asse delle ordinate.

 

Va bene così?

 

Ora spiega dove vuoi arrivare.

Se guardate la vostra fig. dove si ricava la tangente per Wiener:

Non è difficile stimare il suo valore visivamente tg=1/2 per il campione di allenamento. Se guardate la vostra ultima figura, il valore di tg non supera il livello 0,1

Commento.

 
Potrebbe essere la velocità? Vado a dare un'occhiata.
 

Questo perché ho moltiplicato la tangente calcolata per la volatilità di Wiener, anch'essa calcolata in modo errato (la differenza di conteggi accumulata senza essere squadrata)


Queste immagini sono per K=1


 

Ora congratulazioni!

Vediamo che il codice NS a singolo strato funziona correttamente - zero (se aggiungiamo altre statistiche) su un processo casuale e qualcosa di statisticamente significativo diverso da zero su un mercato BP. Ora possiamo passare a lavorare con l'approssimatore universale (bilayer nonlinear NS) e confrontare i risultati ottenuti con il lavoro del neurone lineare. Dopo la lucidatura, possiamo confrontare i rendimenti con diversi numeri di neuroni nello strato nascosto e sperimentare con diversi dati di input.

Motivazione: