Galateo del mercato o buone maniere in un campo minato - pagina 50

 
Prival >> :

Se avessi saputo che tipo di esempio volevo, non l'avrei chiesto. Qualcosa di semplice sul matadec. Preferibilmente con spiegazioni su cosa sono le epoche, ecc. Non capisco molti termini, quindi il significato di quello che stai facendo spesso scivola via.

Una volta ho visto un esempio in un libro di testo su come una rete viene addestrata su un'onda sinusoidale, qualcosa del genere. Se non è troppo disturbo.

La posterò ora. Aggiungerò dei commenti in modo che sia chiaro da dove e cosa proviene.

Fatto. Controlla nella tua casella di posta elettronica.


al neutrone

Sono seduto nel bel mezzo di un doppio strato. Ho fatto qualche ricerca lungo la strada...

Penso di sapere perché il mio monostrato funziona così - cioè, non funziona come il tuo.

Date un'occhiata a questo:


Ora non so nemmeno se considerarlo un errore (per un solo strato) -:) Cosa ne pensate?

 
Il doppio strato non funziona ancora. Una specie di eccezione che non riesco a cogliere...
 

paralocus ha scritto (a) >>.

Ora non so nemmeno se considerarlo un errore (per un solo strato) -:) Come si dice.

Uscite dagli indici!

Si dovrebbe compensare questo errore manualmente, ma è troppo poco. Ecco perché è meglio farlo subito.

Un'altra cosa. Ecco un'espressione per emettere correttamente l'errore di apprendimento:

In altre parole, si ottiene prima la somma dei quadrati degli errori di tutto il campione di allenamento in un'epoca e si divide questa espressione per il quadrato della dispersione del vettore di allenamento (normalizzazione). Questo viene fatto per evitare di essere legati al numero di epoche o a una specifica architettura. Sarà più facile confrontare i risultati della formazione NS. Si scopre che se il valore ottenuto è <1 allora la rete è addestrata, altrimenti - la migliore previsione è di buttarla nel cestino e andare a dormire.

 
Capito, e stavo solo accumulando il modulo di errore per l'intera epoca e poi dividendolo per la lunghezza dell'epoca. Attualmente sto lavorando su un doppio strato
 

Ma non capisco perché gli indici devono essere rimossi? Penso che sia solo che il quadrato di correzione non si somma correttamente.

Insomma, deve essere così:


Cosa intendeva dire?

 

al neutrone


Serega, spiega il concetto. Farai pagare al tuo NS la previsione di un certo valore (Close, (H+L)/2, colore della barra, ....) che è previsto nel prossimo conteggio (cioè la previsione di un conteggio in avanti)? Ho capito bene o c'è qualcos'altro?

 
paralocus писал(а) >>

Ma non capisco perché gli indici devono essere rimossi? Penso che sia solo che la correzione è stata squadrata nel modo sbagliato.

Perché avete bisogno di indici? Si accumula la correzione (non il suo quadrato, ma la correzione compreso il segno), gli indici non sono necessari. Poi normalizzate alla somma dei quadrati alla radice (di nuovo senza indici) e otterrete il valore desiderato della correzione per una data epoca.

grasn ha scritto >>.

al neutrone

Serega, illuminami concettualmente. Userai il tuo NS per predire qualche valore (Close, (H+L)/2, colore della barra, ....) che è previsto nel prossimo timeframe consecutivo (cioè la predizione un timeframe avanti)? Ho capito bene o c'è qualcos'altro?

Sì, prevedo solo un passo avanti e poi riqualifico la griglia. Prevedo la direzione del movimento previsto, non la sua grandezza o la durata.

 

Ma la correzione, la accumulo per ogni peso personalmente, cioè sarà diversa per i diversi pesi inclusi nel neurone (penso che sia così che l'hai spiegato, fammi controllare)

Questo è quello che sembra:


 

Proprio così!

Ho confuso l'indicizzazione per epoche con quella per sinapsi. La tua implementazione è un po' diversa, quindi me la sto facendo sotto. Mi dispiace!

Allora qual è il senso della sua domanda? Cosa c'è che non va?

 
Azzerate i contatori prima di ogni epoca, vero?
Motivazione: