Come si lavora con le reti neurali? - pagina 7

 
Swetten:

Permettetemi di ricordarvi l'affermazione originale: NS e GA sono cose completamente diverse, non collegate tra loro in alcun modo.

L'uno non si trasforma in nessun modo nell'altro.


Perché no: ORO <-> GA ;).

Buona fortuna.

 

VladislavVG:

Perché no: ORO <-> GA ;).

Se si rimuove ORO - GA funzionerà senza di esso?

Lasciatemi chiedere: cosa sarebbe esattamente GA?

Sì... È una classe difficile quella che ti danno.

Buona fortuna. :)

 
LeoV:

Non si tratta di dinamica. La dinamica può essere qualsiasi cosa, purché i modelli che la rete ha trovato durante il periodo di formazione funzionino in futuro. Questo è il problema .....)))

Intendevo la dinamika finché si mette la stessa coppia nella rete... per quanto riguarda le altre regolarità - sono d'accordo... ma dove farle funzionare sempre ))))
 
Swetten:

E se si rimuove l'ORO, significa che il GA funzionerà senza di esso?

Bene, bene, bene. Lì ti insegnano duramente.

Buona fortuna. :)

Spiega esattamente cosa intendi per "ORO rimosso" e "GA funzionerà senza di esso"?

Se intendi sostituire/estendere l'algoritmo di apprendimento ORO con GA, che è quello che intendevo, allora lo farà, se è qualcos'altro, allora devo aver capito male. In molti casi funziona anche il metodo del gradiente coniugato, che è molto più efficiente dell'ORO. Tutto dipende dal funzionale che viene minimizzato.

E per quanto riguarda "insegnato con durezza", posso dire la stessa cosa: sembra che tu sia gravemente sottoeducato ;).

Buona fortuna.

ZZY Sei in grado di trovare articoli sulla modifica degli algoritmi di apprendimento utilizzando GA? Ce ne sono alcuni in russo ;).

 
VladislavVG:

Spiega esattamente cosa intendi per "ORO rimosso" e "GA funzionerà senza di esso".

Dovresti essere tu a chiedere cos'è. E Reshetov. O come capire il tuo "Beh, perché: GRO <-> GA"?

Quello che ho capito personalmente: GA è solo un meccanismo di ottimizzazione. Ottimizzazione di qualsiasi cosa. GA permette di sbarazzarsi dell'ottimizzazione della forza bruta.

Non ha niente a che fare con le reti neurali. In realtà, è così, ma solo come meccanismo di ricerca dei pesi ottimali.

Quindi GA non è e non sarà mai un NS.

 

VladislavVG:

Se intendi sostituire/estendere l'algoritmo di apprendimento ORO con GA, come ho detto, lo farà, se è qualcos'altro, devo aver capito male. In molti casi funziona anche il metodo del gradiente coniugato, che è molto più efficiente dell'ORO. Tutto dipende dal funzionale che viene minimizzato.

E riguardo al "severamente insegnato" posso rispondere con lo stesso: sembra che tu sia severamente sottoeducato ;).

Mi sto scervellando per capire la tua prima frase.

A giudicare dalle opzioni che hai elencato, potrebbe essere strutturato così: "Se intendi sostituire l'algoritmo di apprendimento ORO con l'uso di GA, che è quello di cui stavo parlando - allora ci sarà".

Cosa? Lavoro invece di NS?

 
Swetten:

Sei tu che dovresti chiedere cos'è. O come capire il tuo "Beh, perché: ORO <-> GA"?

Quello che ho capito personalmente: GA è solo un meccanismo di ottimizzazione. Ottimizzazione di qualsiasi cosa. GA permette di sbarazzarsi dell'ottimizzazione della forza bruta.

Non ha niente a che fare con le reti neurali. In realtà, è così, ma solo come meccanismo di ricerca dei pesi ottimali.

Pertanto, GA non è e non sarà mai un NS.

Cosa intende per "ottimizzazione"? Se è solo una ricerca di varianti, non è esattamente la stessa cosa. È MT che ti confonde.

Ora su GA: è un metodo di ricerca, in caso di formazione di una rete stiamo cercando un minimo di alcune funzionalità. Spesso si commettono errori. Nel processo di formazione della rete sia ORO che GA, e gradienti e annealing (c'è un tale metodo - simile a GA) cercano di trovare un estremo. Quale metodo sarà più efficace dipende dal criterio funzionale e qualitativo (cioè il criterio secondo il quale vengono selezionate le migliori varianti). GA è il più universale di tutti i metodi. Nessuno di loro garantisce di trovare l'estremo globale.

Con l'uso di GA è possibile, per esempio, selezionare simultaneamente l'architettura della rete, cioè includerla (architettura) nei parametri ottimizzati e impostare il criterio di qualità (funzione fitness in termini di GA). Ci sono più possibilità. E se necessario si può usare ORO anche insieme a GA.

Buona fortuna.

 
Swetten:

Cosa? Lavoro invece di NS?

Il metodo di formazione non "funzionerà invece". Dopo tutto, l'EDC non funziona "al posto di NS". Risposto in modo più dettagliato sopra.

Buona fortuna.

 
VladislavVG:

Cosa intendi per "ottimizzazione"? Se si tratta solo di passare attraverso le opzioni, non è proprio così. È MT che ti confonde.

Ora per il GA: è un metodo di ricerca, nel caso dell'apprendimento di una rete stiamo cercando un minimo di alcune funzionalità. Spesso ci sono errori. Nel processo di formazione della rete, che sia ORO o GA, che sia gradienti o annealing (c'è un metodo simile - simile a GA), si cerca di trovare un estremo. Quale metodo sarà più efficace dipende dal criterio funzionale e qualitativo (cioè il criterio secondo il quale vengono selezionate le migliori varianti). GA è il più universale di tutti i metodi. Nessuno di loro garantisce di trovare l'estremo globale.

Con l'uso di GA è possibile, per esempio, selezionare simultaneamente l'architettura della rete, cioè includerla (architettura) nei parametri ottimizzati e impostare il criterio di qualità (funzione fitness in termini di GA). Ci sono più possibilità. E se necessario si può usare ORO insieme a GA.

Buona fortuna.

Ugh! Sei completamente confuso!

Dovresti rileggere questo thread.

Reshetov sostiene: "È abbastanza possibile, dato che abbiamo a che fare con una scatola nera, che al posto della rete neurale in un pacchetto di firmware venga usato un algoritmo genetico, e forse qualche regressione o qualche altro metodo di estrapolazione".

https://www.mql5.com/ru/forum/108709/page4

È quello che sto cercando di scoprire cosa fosse. E l'ORO l'ha scambiato per GRNN.

 

VladislavVG:

Il metodo di formazione non "funzionerà invece". Dopo tutto, l'EDC non funziona "al posto di NS".

Questo è quello che stavo cercando di dirvi. :)

E qualcun altro.

È solo che il tuo messaggio originale era sbagliato.

Motivazione: