L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2828
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Sì, prima o poi darò un'occhiata ad adam e farò qualche test.
Gli articoli sono il top, solo che non sono qualificato per obiettare qualcosa :)
grazie))))
allora vedo la necessità di includere nella revisione anche gli algoritmi tradizionalmente utilizzati con i neuroni.
In pratica, ciò significa che il neurone sarà poco allenato.
Beh, questo è un po' un ripensamento.
Ci sono diversi tipi di AO, ottimizzazione locale e ottimizzazione globale...
locale è costituita dai gradienti, dallo stesso Adam, ecc... globale è la genetica, ecc...
Le reti vengono addestrate con l'AO locale perché è veloce, "ci sono molti pesi".
e non è efficace addestrare l'AO globale...
E la cosa principale è che se si addestra un neurone normale, che è circa un miliardo di pesi, con l'AO globale, in primo luogo, si dovrà aspettare molto tempo, e in secondo luogo, non si può in alcun modo garantire di aver trovato un minimo globale....
Quindi tutto questo discorso è una profanazione dell'acqua pura, SUPER ingenua convinzione che chi ha creato il deep learning non conosca gli algoritmi di ottimizzazione globale e le loro proprietà, è così ovvio che non fa nemmeno ridere....
Imparerete a distinguere gli algoritmi di ottimizzazione globale dagli algoritmi di ottimizzazione locale, e poi c'è l'ottimizzazione discreta, l'ottimizzazione continua, l'ottimizzazione multicriteriale, etc....
E ognuno di essi ha i suoi compiti, ammassare tutto in un mucchio e testare qualcosa è una profanazione.
Beh, questo è un po' un ripensamento.
Esistono diversi tipi di AO, ottimizzazione locale e ottimizzazione globale...
Locale è il gradiente, lo stesso adam, ecc. Globale è la genetica, ecc...
Le reti vengono addestrate localmente perché è veloce, "ci sono molte scale".
e non è efficiente addestrare le AO globali...
E la cosa principale è che se si addestra un neurone normale, che è circa un miliardo di pesi, con l'AO globale, in primo luogo, si dovrà aspettare molto tempo e, in secondo luogo, non si può in alcun modo garantire di aver trovato il minimo globale....
Quindi tutto questo discorso è una profanazione dell'acqua pura, SUPER ingenua convinzione che chi ha creato il deep learning non conosca gli algoritmi di ottimizzazione globale e le loro proprietà, è talmente ovvio che non fa nemmeno ridere....
È orribile.
Non esiste una divisione degli algoritmi in "locali" e "globali". Se un algoritmo si blocca in uno degli estremi locali, è un difetto, non una caratteristica.
Esistono confronti altamente specializzati degli AO tradizionali per i neuroni, si possono cercare. gli algoritmi sono di solito utilizzati per compiti specifici, ma tutti gli algoritmi, senza eccezioni, possono essere confrontati in termini di qualità di convergenza.
grazie)))
allora vedo la necessità di includere nella revisione anche gli algoritmi tradizionalmente utilizzati con i neuroni.
è terribile.
Non esiste una divisione degli algoritmi in "locali" e "globali". se un algoritmo si blocca in uno degli estremi locali, è un difetto, non una caratteristica.
Si utilizzano algoritmi di discesa del gradiente, che è in generale, non per i neuroni, e che ha una barba enorme. Cercate su Google e non fate domande infantili, dopo aver appreso come la discesa del gradiente supera diversi tipi di trappole degli estremi locali. È una cosa che si fa in modo specifico da anni.
Una volta ho letto che se l'errore non cambia molto per alcuni cicli, cioè gira intorno a un estremo, per verificare se è locale, si fa un forte salto nei parametri per uscire da questo estremo. Se è locale, non vi ritornerà nei salti successivi, se è globale, vi ritornerà. Si può ripetere più volte. In generale, è necessario esplorare lo spazio in modo più ampio.
è terribile.
Non esiste una divisione degli algoritmi in "locali" e "globali". se un algoritmo si blocca in uno degli estremi locali, è un difetto, non una caratteristica.
Esistono confronti altamente specializzati degli AO tradizionali per i neuroni, potete cercarli. gli algoritmi sono di solito utilizzati per compiti specifici, ma tutti gli algoritmi, senza eccezioni, possono essere confrontati in termini di qualità di convergenza.
Si tratta di 5 )))))))))
Hai frequentato la stessa università di Maximka?