Come si lavora con le reti neurali? - pagina 8

 
VladislavVG:

Cosa intende per "ottimizzazione"? Se si tratta solo di passare attraverso le opzioni, non è proprio così. È MT che ti confonde.

Ora su GA: è un metodo di ricerca, nel caso della rete di formazione stiamo cercando il minimo di alcuni funzionali. Spesso si commettono errori. Nel processo di formazione della rete sia ORO che GA, e gradienti e annealing (c'è un tale metodo - simile a GA) cercano di trovare un estremo. Quale metodo sarà più efficace dipende dal criterio funzionale e qualitativo (cioè il criterio secondo il quale vengono selezionate le migliori varianti). GA è il più universale di tutti i metodi. Nessuno di loro garantisce di trovare l'estremo globale.

Con l'uso di GA è possibile, per esempio, selezionare simultaneamente l'architettura della rete, cioè includerla (architettura) nei parametri ottimizzati e impostare il criterio di qualità (funzione fitness in termini di GA). Ci sono più possibilità. E se necessario si può usare ORO anche insieme a GA.

Buona fortuna.


Ti sei già risposto da solo che GA non è una rete neurale. Potrebbe anche essere un metodo a gradiente come facilmente un NS. C'è una macchina e un autista. E ci sono un sacco di modi per insegnare a un autista a guidare una macchina, ma ognuno di questi modi non è una macchina.

Questo è anche ciò che sostiene Swetten. Non capisco davvero di cosa state discutendo?

 
Farnsworth:

Lei stesso ha risposto che GA non è una rete neurale. Il metodo del gradiente potrebbe anche essere un NS facile. C'è una macchina e un autista. E ci sono un sacco di modi per insegnare al guidatore a guidare una macchina, ma ognuno di questi modi non è una macchina.

Questo è anche ciò che sostiene Swetten. Non capisco bene cosa stai argomentando?

Quindi non ho affermato che GA è NS. Ho mostrato come NS e GA potrebbero essere collegati in risposta alla frase di Svetlana,

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

Che non c'è una tale connessione.


Buona fortuna.
 
VladislavVG:

Quindi non ho affermato che GA è NS. Ho mostrato come NS e GA potrebbero essere correlati in risposta alla frase di Svetlana che non esiste.

1. Non hai letto attentamente il thread e non hai capito a cosa si riferiva la frase;

2. La cosa più divertente è che non hanno davvero nulla a che fare con questo. Se si aggiunge GA, è una cosa; se si aggiunge ORO, è un'altra cosa; se si aggiunge qualcos'altro, è un'altra cosa.

3. GA è solo un meccanismo di ottimizzazione. È un meccanismo universale, devo precisare. Cioè, è un universale, compreso quello per l'ottimizzazione dei NS.

Per quanto riguarda i punti 2 e 3, concludo che la NS e la GA non hanno nulla a che fare l'una con l'altra.

 

NS - metodo di trasformazione (qualunque cosa: approssimazione, classificazione, filtraggio, trasformazione logica)

GA - metodo di ottimizzazione.

L'uno non è l'altro e non possono sostituirsi a vicenda. E basta.

In molti articoli e libri sulle NS, parlando di reti neurali artificiali, si sottintende che sono addestrate da ORO, ingannando i lettori. Non solo, ho incontrato affermazioni che "tali reti non funzionano perché...." mentre se una rete è addestrata con qualche altro algoritmo di ottimizzazione, è già una rete completamente diversa attribuendo qualità completamente diverse a tali "altre" reti - un piscio di pecora. Una rete è una rete, non cambierà le sue proprietà se la addestriamo con qualsiasi metodo di ottimizzazione. Può cambiare la qualità della formazione, tutto qui.

Motivazione: