Cosa inserire nell'ingresso della rete neurale? Le vostre idee... - pagina 57

 
Ivan Butko #:

Perché sei così sensibile



Direi che è prevedibile.
E' come versare dell'acqua su qualcuno che sta dormendo e che è destinato a pisciarsi addosso....
 
bene.
Se l'apprendimento è un processo finalizzato all'apprendimento di qualche sistema di un determinato argomento, allora quale dovrebbe essere il risultato? È necessario valutare in qualche modo il risultato, quanto è buono.
 

Sia l'uno che l'altro invece di leggere letteratura specifica sull'argomento, usano la chat di gpt e considerano il loro approccio allo studio come profondo :-O

La fottuta generazione Pepsi ))))

 
mytarmailS #:

Sia l'uno che l'altro, invece di leggere la letteratura speciale sull'argomento, usano la chat di gpt e considerano il loro approccio allo studio profondo :-O

Pepsi generazione cazzo ))))

La Pepsi ha un sapore migliore della cola, non mi dispiace.

Anche se quando mi hanno fatto il test ad occhi chiusi non sono riuscito a distinguere l'una dall'altra.

Sono sicuro che mi hanno dato due cole allora.
[Eliminato]  
Se continuiamo questa affascinante conversazione, quelli che versano acqua si cagheranno addosso di nuovo, è già una tradizione 😁 Dopo tutto, qualcuno glielo ha insegnato, altrimenti come farebbero a saperlo.

Si chiama sovra-ottimizzazione - wishful thinking. Quando sembra di aver imparato qualcosa, ma poi non funziona ancora :)

Si ottiene un apprendimento routinario anziché un apprendimento. Perché il processo di apprendimento comprende la pratica.
 
Andrey Dik #:

Divertimento. Lo scopo della sostituzione del BB predefinito è quello di ottenere i valori prima?

Lo scopo della sostituzione di quello standard non era quello di verificare la qualità della rete neurale, e lo scopo = conoscere in anticipo l'inizio e la fine della planarità.

 

Informazioni sulla formazione...


Un paio di anni fa ho incontrato questa espressione su un sito comune (non tecnico): database basati su reti neurali. In generale, mi sono trovato d'accordo con questo termine.



Io stesso mi occupo di alberi - anche un database basato su alberi è applicabile. 1 foglia in un albero = 1 riga in un database. Differenze:



1 riga nel database contiene solo 1 esempio dai dati memorizzati nel database. 1 foglia contiene:



1) 1 esempio e tutti gli esempi esattamente uguali (quando si divide l'albero il più possibile fino all'ultima differenza) o

2) 1 esempio ed esattamente gli stessi esempi + gli esempi più simili se la divisione si ferma prima.
Gli esempi simili sono definiti in modo diverso dai diversi algoritmi quando selezionano le suddivisioni dell'albero.

Vantaggi degli alberi rispetto ai database: generalizzazione e ricerca rapida della foglia desiderata - non è necessario passare attraverso un milione di righe, la foglia può essere raggiunta attraverso diverse suddivisioni.

Anche il clustering è generalizzato. Kmeans - in base alla vicinanza degli esempi al centro del cluster, altri metodi in modo diverso.

Si può anche dividere per numero massimo di cluster = numero di esempi e si otterrà un analogo di database/foglie senza generalizzazione. Le reti neurali sono più difficili da capire e comprendere, ma in sostanza sono anch'esse un database, anche se non così ovvio come foglie e cluster.

In conclusione: apprendimento ad albero = memorizzazione/registrazione di esempi, proprio come un database. Se si interrompe la divisione/apprendimento prima della memorizzazione più accurata possibile, simemorizza con la generalizzazione.

Andrew, ovviamente, vuole far notare che l'apprendimento è un'ottimizzazione. No, è memorizzazione. Ma è presente anche l'ottimizzazione. È possibile ottimizzare le variazioni con la profondità di apprendimento, i metodi di suddivisione, ecc. Ogni fase di ottimizzazione addestra un modello diverso. Ma l'apprendimento non è ottimizzazione. È memorizzazione.
[Eliminato]  
Forester #:

Informazioni sulla formazione...


Un paio di anni fa ho incontrato questa espressione su un sito comune (non tecnico): database basati su reti neurali. In generale, mi sono trovato d'accordo con questo termine.



Io stesso mi occupo di alberi - anche un database basato su alberi è applicabile. 1 foglia in un albero = 1 riga in un database. Differenze:



1 riga nel database contiene solo 1 esempio dai dati memorizzati nel database. 1 foglia contiene:

1) 1 esempio e tutti gli esempi esattamente uguali (quando si divide l'albero il più possibile fino all'ultima differenza)

2) 1 esempio ed esattamente gli stessi esempi + gli esempi più simili se la divisione si ferma prima.
Gli esempi simili sono definiti in modo diverso dai diversi algoritmi quando selezionano le suddivisioni dell'albero.

Vantaggi degli alberi rispetto ai database: generalizzazione e ricerca rapida della foglia desiderata - non è necessario passare attraverso un milione di righe, la foglia può essere raggiunta attraverso diverse suddivisioni.

Anche il clustering è generalizzato. Kmeans - in base alla vicinanza degli esempi al centro del cluster, altri metodi in modo diverso.

Si può anche dividere per numero massimo di cluster = numero di esempi e si otterrà un analogo di database/foglie senza generalizzazione. Le reti neurali sono più difficili da capire e comprendere, ma in sostanza sono anch'esse un database, anche se non così ovvio come foglie e cluster.

In conclusione: apprendimento ad albero = memorizzazione/registrazione di esempi, proprio come un database. Se si interrompe la divisione/apprendimento prima della memorizzazione più accurata possibile, simemorizza con la generalizzazione.

Andrew, ovviamente, vuole far notare che l'apprendimento è un'ottimizzazione. No, è memorizzazione. Ma è presente anche l'ottimizzazione. È possibile ottimizzare le variazioni con la profondità di apprendimento, i metodi di suddivisione, ecc. Ogni fase di ottimizzazione addestra un modello diverso. Ma l'apprendimento non è ottimizzazione. È memorizzazione.
La riqualificazione è memorizzazione. La memorizzazione e la generalizzazione sono più vicine all'apprendimento :)
 
Maxim Dmitrievsky #:
Il sovraapprendimento è memorizzazione. Memorizzazione e generalizzazione - più vicine all'apprendimento :)

La generalizzazione è più simile al sottoapprendimento. Cioè avete memorizzato, ma non in modo assolutamente accurato (avete coinvolto anche i vostri vicini...). Quasi come uno scolaro con la sufficienza)))

Ma se memorizziamo qualcosa definito da una legge (per esempio la legge di Ohm), non ci sarà sovraapprendimento, è più facile che ci sia un sottoapprendimento se ci sono pochi esempi e un numero infinito di esempi.

Nel caso del trading, dove i modelli sono quasi inesistenti e rumorosi, una memorizzazione assolutamente accurata insieme al rumore porterà a una perdita.
Per qualche motivo questo fenomeno è stato chiamato sovraapprendimento. La memorizzazione accurata non è di per sé dannosa, come nel caso dell'apprendimento dei modelli. Ma memorizzare rumore/spazzatura non è utile.
[Eliminato]  
Forester #:

La generalizzazione è più simile a un sottoapprendimento. Cioè si ricordano, ma non in modo assolutamente preciso (hanno coinvolto anche i vicini...). Quasi come uno scolaro con la C))

Ma se memorizziamo qualcosa definito da una legge (per esempio la legge di Ohm), non ci sarà sovraapprendimento, è più facile che ci sia un sottoapprendimento se ci sono pochi esempi e un numero infinito di esempi.

Nel caso del trading, dove i modelli sono quasi inesistenti e rumorosi, una memorizzazione assolutamente accurata insieme al rumore porterà a una perdita.
Per qualche motivo questo fenomeno è stato chiamato sovraapprendimento. La memorizzazione accurata non è di per sé dannosa, come nel caso dell'apprendimento dei modelli. La memorizzazione di rumore/spazzatura, invece, non è benefica.
La generalizzazione è un equilibrio tra l'insufficienza e l'eccesso :) Esempio grossolano dalla vita: ho imparato bene la formula di Maxwell, ma non sono riuscito ad applicarla nella realtà, questo è un sovra-apprendimento. Sapevo che la formula di Maxwell esiste, ma non ricordavo come fosse scritta, ma in pratica me ne sono ricordato, l'ho riletta e l'ho applicata. Questa è generalizzazione (apprendimento) e non anni sprecati all'università.