Cosa inserire nell'ingresso della rete neurale? Le vostre idee... - pagina 57
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Perché sei così sensibile
Sia l'uno che l'altro invece di leggere letteratura specifica sull'argomento, usano la chat di gpt e considerano il loro approccio allo studio come profondo :-O
La fottuta generazione Pepsi ))))
Sia l'uno che l'altro, invece di leggere la letteratura speciale sull'argomento, usano la chat di gpt e considerano il loro approccio allo studio profondo :-O
Pepsi generazione cazzo ))))
Divertimento. Lo scopo della sostituzione del BB predefinito è quello di ottenere i valori prima?
Lo scopo della sostituzione di quello standard non era quello di verificare la qualità della rete neurale, e lo scopo = conoscere in anticipo l'inizio e la fine della planarità.
Informazioni sulla formazione...
Un paio di anni fa ho incontrato questa espressione su un sito comune (non tecnico): database basati su reti neurali. In generale, mi sono trovato d'accordo con questo termine.
Io stesso mi occupo di alberi - anche un database basato su alberi è applicabile. 1 foglia in un albero = 1 riga in un database. Differenze:
Vantaggi degli alberi rispetto ai database: generalizzazione e ricerca rapida della foglia desiderata - non è necessario passare attraverso un milione di righe, la foglia può essere raggiunta attraverso diverse suddivisioni.
Anche il clustering è generalizzato. Kmeans - in base alla vicinanza degli esempi al centro del cluster, altri metodi in modo diverso.
In conclusione: apprendimento ad albero = memorizzazione/registrazione di esempi, proprio come un database. Se si interrompe la divisione/apprendimento prima della memorizzazione più accurata possibile, simemorizza con la generalizzazione.Si può anche dividere per numero massimo di cluster = numero di esempi e si otterrà un analogo di database/foglie senza generalizzazione. Le reti neurali sono più difficili da capire e comprendere, ma in sostanza sono anch'esse un database, anche se non così ovvio come foglie e cluster.
Andrew, ovviamente, vuole far notare che l'apprendimento è un'ottimizzazione. No, è memorizzazione. Ma è presente anche l'ottimizzazione. È possibile ottimizzare le variazioni con la profondità di apprendimento, i metodi di suddivisione, ecc. Ogni fase di ottimizzazione addestra un modello diverso. Ma l'apprendimento non è ottimizzazione. È memorizzazione.
Informazioni sulla formazione...
Un paio di anni fa ho incontrato questa espressione su un sito comune (non tecnico): database basati su reti neurali. In generale, mi sono trovato d'accordo con questo termine.
Io stesso mi occupo di alberi - anche un database basato su alberi è applicabile. 1 foglia in un albero = 1 riga in un database. Differenze:
Vantaggi degli alberi rispetto ai database: generalizzazione e ricerca rapida della foglia desiderata - non è necessario passare attraverso un milione di righe, la foglia può essere raggiunta attraverso diverse suddivisioni.
Anche il clustering è generalizzato. Kmeans - in base alla vicinanza degli esempi al centro del cluster, altri metodi in modo diverso.
In conclusione: apprendimento ad albero = memorizzazione/registrazione di esempi, proprio come un database. Se si interrompe la divisione/apprendimento prima della memorizzazione più accurata possibile, simemorizza con la generalizzazione.Si può anche dividere per numero massimo di cluster = numero di esempi e si otterrà un analogo di database/foglie senza generalizzazione. Le reti neurali sono più difficili da capire e comprendere, ma in sostanza sono anch'esse un database, anche se non così ovvio come foglie e cluster.
Andrew, ovviamente, vuole far notare che l'apprendimento è un'ottimizzazione. No, è memorizzazione. Ma è presente anche l'ottimizzazione. È possibile ottimizzare le variazioni con la profondità di apprendimento, i metodi di suddivisione, ecc. Ogni fase di ottimizzazione addestra un modello diverso. Ma l'apprendimento non è ottimizzazione. È memorizzazione.
Il sovraapprendimento è memorizzazione. Memorizzazione e generalizzazione - più vicine all'apprendimento :)
La generalizzazione è più simile al sottoapprendimento. Cioè avete memorizzato, ma non in modo assolutamente accurato (avete coinvolto anche i vostri vicini...). Quasi come uno scolaro con la sufficienza)))
Ma se memorizziamo qualcosa definito da una legge (per esempio la legge di Ohm), non ci sarà sovraapprendimento, è più facile che ci sia un sottoapprendimento se ci sono pochi esempi e un numero infinito di esempi.
Nel caso del trading, dove i modelli sono quasi inesistenti e rumorosi, una memorizzazione assolutamente accurata insieme al rumore porterà a una perdita.Per qualche motivo questo fenomeno è stato chiamato sovraapprendimento. La memorizzazione accurata non è di per sé dannosa, come nel caso dell'apprendimento dei modelli. Ma memorizzare rumore/spazzatura non è utile.
La generalizzazione è più simile a un sottoapprendimento. Cioè si ricordano, ma non in modo assolutamente preciso (hanno coinvolto anche i vicini...). Quasi come uno scolaro con la C))
Ma se memorizziamo qualcosa definito da una legge (per esempio la legge di Ohm), non ci sarà sovraapprendimento, è più facile che ci sia un sottoapprendimento se ci sono pochi esempi e un numero infinito di esempi.
Nel caso del trading, dove i modelli sono quasi inesistenti e rumorosi, una memorizzazione assolutamente accurata insieme al rumore porterà a una perdita.Per qualche motivo questo fenomeno è stato chiamato sovraapprendimento. La memorizzazione accurata non è di per sé dannosa, come nel caso dell'apprendimento dei modelli. La memorizzazione di rumore/spazzatura, invece, non è benefica.