L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2828

 
Sì, darò un'occhiata ad Adam con calma e farò qualche test.
 
Andrey Dik #:
Sì, prima o poi darò un'occhiata ad adam e farò qualche test.
Gli articoli sono di alto livello, solo che non sono abbastanza qualificato per argomentare qualcosa :)
 
Maxim Dmitrievsky #:
Gli articoli sono il top, solo che non sono qualificato per obiettare qualcosa :)

grazie))))

allora vedo la necessità di includere nella revisione anche gli algoritmi tradizionalmente utilizzati con i neuroni.

 
Andrey Dik #:

In pratica, ciò significa che il neurone sarà poco allenato.

Beh, questo è un po' un ripensamento.

Ci sono diversi tipi di AO, ottimizzazione locale e ottimizzazione globale...

locale è costituita dai gradienti, dallo stesso Adam, ecc... globale è la genetica, ecc...

Le reti vengono addestrate con l'AO locale perché è veloce, "ci sono molti pesi".

e non è efficace addestrare l'AO globale...


E la cosa principale è che se si addestra un neurone normale, che è circa un miliardo di pesi, con l'AO globale, in primo luogo, si dovrà aspettare molto tempo, e in secondo luogo, non si può in alcun modo garantire di aver trovato un minimo globale....

Quindi tutto questo discorso è una profanazione dell'acqua pura, SUPER ingenua convinzione che chi ha creato il deep learning non conosca gli algoritmi di ottimizzazione globale e le loro proprietà, è così ovvio che non fa nemmeno ridere....


Imparerete a distinguere gli algoritmi di ottimizzazione globale dagli algoritmi di ottimizzazione locale, e poi c'è l'ottimizzazione discreta, l'ottimizzazione continua, l'ottimizzazione multicriteriale, etc....

E ognuno di essi ha i suoi compiti, ammassare tutto in un mucchio e testare qualcosa è una profanazione.

 
mytarmailS #:

Beh, questo è un po' un ripensamento.

Esistono diversi tipi di AO, ottimizzazione locale e ottimizzazione globale...

Locale è il gradiente, lo stesso adam, ecc. Globale è la genetica, ecc...

Le reti vengono addestrate localmente perché è veloce, "ci sono molte scale".

e non è efficiente addestrare le AO globali...


E la cosa principale è che se si addestra un neurone normale, che è circa un miliardo di pesi, con l'AO globale, in primo luogo, si dovrà aspettare molto tempo e, in secondo luogo, non si può in alcun modo garantire di aver trovato il minimo globale....

Quindi tutto questo discorso è una profanazione dell'acqua pura, SUPER ingenua convinzione che chi ha creato il deep learning non conosca gli algoritmi di ottimizzazione globale e le loro proprietà, è talmente ovvio che non fa nemmeno ridere....

È orribile.

Non esiste una divisione degli algoritmi in "locali" e "globali". Se un algoritmo si blocca in uno degli estremi locali, è un difetto, non una caratteristica.

Esistono confronti altamente specializzati degli AO tradizionali per i neuroni, si possono cercare. gli algoritmi sono di solito utilizzati per compiti specifici, ma tutti gli algoritmi, senza eccezioni, possono essere confrontati in termini di qualità di convergenza.

 
Andrey Dik #:

grazie)))

allora vedo la necessità di includere nella revisione anche gli algoritmi tradizionalmente utilizzati con i neuroni.

Ho letto una volta che se l'errore non cambia molto per diversi cicli, cioè è intorno a un estremo, allora per verificare se è locale, si fa un forte salto nei parametri per saltare fuori da questo estremo. Se è locale, non vi ritornerà nei salti successivi, se è globale, vi ritornerà. Si può ripetere più volte. In generale, è necessario esplorare lo spazio in modo più ampio.
 
Andrey Dik #:

è terribile.

Non esiste una divisione degli algoritmi in "locali" e "globali". se un algoritmo si blocca in uno degli estremi locali, è un difetto, non una caratteristica.

Si utilizzano algoritmi di discesa del gradiente, che è in generale, non per i neuroni, e che ha una barba enorme. Cercate su Google e non fate domande infantili, dopo aver appreso come la discesa del gradiente supera diversi tipi di trappole degli estremi locali. È una cosa che si fa in modo specifico da anni.

 
elibrarius #:
Una volta ho letto che se l'errore non cambia molto per alcuni cicli, cioè gira intorno a un estremo, per verificare se è locale, si fa un forte salto nei parametri per uscire da questo estremo. Se è locale, non vi ritornerà nei salti successivi, se è globale, vi ritornerà. Si può ripetere più volte. In generale, è necessario esplorare lo spazio in modo più ampio.
Sì, è vero. È un modo per non rimanere bloccati. A proposito, l'altro giorno stavo guardando il volo di Levi, tratto da questo argomento.
 
Ecco un confronto interessante, ad esempio, Adamo contro la genetica o la colonia di formiche, ad esempio. Un trader potrebbe avere un dilemma: cosa usare, l'ottimizzatore MT5 o NS. Anche se sceglie qualcosa, vorrà prendere l'algoritmo più efficiente.
 
Andrey Dik #:

è terribile.

Non esiste una divisione degli algoritmi in "locali" e "globali". se un algoritmo si blocca in uno degli estremi locali, è un difetto, non una caratteristica.

Esistono confronti altamente specializzati degli AO tradizionali per i neuroni, potete cercarli. gli algoritmi sono di solito utilizzati per compiti specifici, ma tutti gli algoritmi, senza eccezioni, possono essere confrontati in termini di qualità di convergenza.

Si tratta di 5 )))))))))

Hai frequentato la stessa università di Maximka?

Motivazione: