"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 75

 
lei.umana:

Il punto non è quale. Mi chiedo solo se il GA con un hardware così debole ce la farà?

Una versione leggera dell'algoritmo joo.

Beh, si può stimare approssimativamente. Basta eseguirlo una volta attraverso la cronologia di FF e misurare il tempo e poi moltiplicarlo per 10000. Otterrai un risultato abbastanza realistico, che è quello che otterrai se eseguirai l'allenamento.


E questo è... Cosa c'è da alleggerire? :)

 
joo:

Beh, si può stimare approssimativamente. Per farlo, eseguite una volta la cronologia di FF, misurando il tempo e poi moltiplicatelo per 10000. È abbastanza realistico quello che si otterrà se si esegue l'allenamento.


E questo è... Cosa c'è da alleggerire? :)

Non del tutto adeguato, è ancora necessario misurare separatamente e sottrarre il tempo totale dei FF per ottenere il valore netto dell'esecuzione dell'algoritmo.

allora si può moltiplicare per il numero di parametri.

Le cotolette sono separate dalle mosche.

 
Urain:
Una volta ho pensato di scrivere un tester per allenare una piccola griglia con Tester GA, come quella che ho disegnato sopra, 6 scale 3 neuroni, compito XOR, ma non riesco ancora a metterci le mani :)
Parlo di:
Rete 100x1000x1 - full mesh
 
2)quanti esempi?
Sto parlando di:
lei.umana:

1) Cosa insegnare,

2) quanti esempi,

3) un errore, ecc.

1) Per il gusto di sperimentare - provate ad approssimare una funzione, per esempio quella dell'articolo.

2) Beh, almeno 1000, credo.

3) ZFF è il più piccolo errore con la superficie della funzione di prova.

 
joo:

E questo è... Cosa c'è da alleggerire? :)

UGA è universale, adatto a molti compiti. Può essere affilato, alleggerito, specialmente per la formazione della rete.
 
joo:

3) ZFF è il più piccolo errore con la superficie della funzione di prova.

ZFF - non capito. ?
 
lei.umana:
ZFF - Non capisco. ?
Il significato di FF, o - VFF, se si segue la terminologia dell'articolo.
 
joo:
Valore di FF, o - VFF, per seguire la terminologia dell'articolo.

il più piccolo errore è un concetto sfuggente...

Ora me ne vado, c'è già troppo di me qui. Se ho altre domande, le farò in privato, per non ingombrare le cose. Vi mostrerò i risultati.

Si spera che Urain & yu-sha presentino un'architettura e una descrizione della rete.

 

Un problema XOR risolto da un tester standard GA, per 100 esempi di 14 errori discreti.

ci sono due maglie nel codice per due neuroni in cascata, e per tre neuroni come nella MLP classica.

passo in cima ai commenti, per 7 parametri passo 0.005, per 9 0.2-03 pesi con 0.2 ingresso, indipendente 03.

così il gioco ma carino.

ZZZ sono un pazzo, ho dato negli esempi di angoli di 1 per esempio, e il mezzo 0. E non importa come le torsioni griglia dei due zeri all'ingresso non può dare 1.

Verifico che l'errore delle uscite della griglia dovrebbe essere uguale a zero in forma discreta, e tende a zero in reale.

Quindi è strano, ho invertito le uscite ma l'errore è rimasto, anche aumentato di un bit a 16, va bene, lo scriverò su GA :) Forse ora ho sonno.

File:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

Oggi è il giorno dell'anziano :)

Silenzio totale, tutti stanno fumando l'intervista.