L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2838

 
mytarmailS #:

C'è un modo per alimentare il bilanciamento o qualsiasi altra cosa attraverso il gradiente nel boost....


Ecco lo schema:

contrassegniamo il grafico con trade perfetti (all'estremo in basso compriamo, all'estremo in alto vendiamo) e creiamo un falso trade perfetto.

Lo chiamerò equilibrio perfetto


Quindi calcoliamo l'equilibrio del commercio dalla spinta

Poi nella funzione obiettivo calcoliamo semplicemente l'errore della bilancia commerciale del boost con la bilancia ideale.

otteniamo un aggiustamento dell'equilibrio ideale, cioè non si tratta della ricerca di un massimo di profitto astratto, ma di un aggiustamento del commercio ideale espresso nel bilancio dei profitti.


Il blu è l'equilibrio ideale, il nero è la traina e il test del modello.

Beh, questo si avvicina a quello che sto dicendo.

Non è l'equilibrio che deve essere massimizzato, ma un certo criterio complesso, nel tuo esempio, la suddivisione in operazioni separate. questa è una funzione derivata dall'equilibrio originale, una funzione più dolce. è questo che dobbiamo cercare l'optimum globale della funzione derivata. è questo che sto cercando di dire. e in questo caso è importante come qualitativamente si troverà l'estremo globale della funzione derivata.

Ci sono molti modi per creare funzioni derivate da quella originale, limitati solo dall'immaginazione.

invece di scagliarti contro le persone, puoi cercare di capire. se capisci, bene. se non capisci, passa oltre.

 
Andrey Dik #:

Invece di scagliarvi contro le persone, potete cercare di capire. Se capite, bene. Se non capite, passate oltre.

I miei attacchi riguardavano il fatto che non si possono confrontare diversi AO su un piano di parità e decidere quale sia buono e quale cattivo....

Ogni AO ha le sue superfici di ottimizzazione.

La scelta dell'AO dipende dalla superficie di ottimizzazione, non dai gusti soggettivi.


Se la superficie è liscia e ha un minimo, una persona che applica un algoritmo genetico o uno sciame o un annealing o qualsiasi altro algoritmo di ottimizzazione globale ad essa, è uno sciocco che non capisce cosa sta facendo, perché la discesa del gradiente risolverà questo problema 100 volte più velocemente.

Se la superficie è complessa, rumorosa, con molti minimi, e una persona usa la discesa del gradiente, anche in questo caso è un pazzo , perché l'algoritmo si bloccherà nel minimo più lungo.


Se una persona decide di confrontare, ad esempio, la discesa del gradiente con la genetica, è forse un pazzo a continuare?

Si tratta di un fraintendimento di cose elementari.

 
mytarmailS #:

il mio attacco era che non si possono confrontare diversi AO su un piano di parità e decidere quale sia buono e quale sia cattivo.

Ogni AO ha le proprie superfici di ottimizzazione.

La scelta dell'AO dipende dalla superficie di ottimizzazione, non dalle simpatie soggettive.

Confronto gli algoritmi con tre funzioni di test completamente diverse, in modo che si possano vedere i vantaggi specifici di ogni algoritmo in test separati, quindi si possa vedere dove sono forti, e quindi si possa scegliere il migliore per i compiti specifici del ricercatore. non c'è soggettivismo nei test, al contrario, sono il più oggettivi possibile.

La maggior parte degli algoritmi specializzati per le reti hanno una qualche forma di smoothing nella loro logica, o momenti. sono orientati all'applicazione di derivate lisce delle funzioni del problema target. si vedrà dove sono forti e dove non sono così forti.

 
Andrey Dik #:

Confronto gli algoritmi con tre funzioni di test completamente diverse, in modo che si possano vedere i vantaggi specifici di ogni algoritmo in test separati, quindi si possa vedere dove sono forti e quindi si possa scegliere il migliore per i compiti specifici del ricercatore. non c'è soggettivismo nei test, al contrario, sono il più oggettivi possibile.

La maggior parte degli algoritmi specializzati per le reti hanno una qualche forma di smoothing nella loro logica, o momenti. sono orientati all'applicazione di derivate lisce delle funzioni del problema target. si vedrà dove sono forti e dove non sono così forti.

Non si possono confrontare diversi tipi di AO nelle stesse condizioni perché risolvono problemi diversi, questo è il mio messaggio.

 
mytarmailS #:

Non si possono confrontare diversi tipi di AO nelle stesse condizioni perché hanno compiti diversi da svolgere, questo è il mio messaggio.

Credo di non aver capito quello che ho detto l'ultima volta.... Ancora una volta, è possibile confrontare, ecco perché si usano diversi problemi di prova, per confrontare gli algoritmi in modo adeguato alle specificità del compito. I test mostrano per quali compiti l'uso di AO è ottimale, in modo da poter scegliere tra questi.

Ad esempio: se ADAM mostra una superiorità sulle funzioni lisce - ottimo! - allora è così che va usato, altrimenti è meglio scegliere un altro algoritmo. Ma se ADAM fa schifo in tutti i test, beh, allora dovremmo scegliere qualcosa di meglio, tutto qui. al giorno d'oggi, la maggior parte delle persone sceglie qualcosa di specifico in base alla "moda", senza sapere se ha fatto la scelta migliore o meno.

 
Le marcature di classe sono perfette e quindi in perfetto equilibrio. L'olio è oleoso. È impossibile migliorare qualcosa.

E selezionare i modelli in base a metriche personalizzate può essere utile a volte, credo. Ma in linea di massima si tratta di un'opera d'arte.
 
Maxim Dmitrievsky #:
Le marcature di classe sono perfette e quindi in perfetto equilibrio. L'olio è oleoso. È impossibile migliorare qualcosa.

E selezionare i modelli in base a metriche personalizzate può essere utile a volte, credo. Ma in linea di massima si tratta di un'opera d'arte.

Sì, ma per un amico è sufficiente per capire perché sono necessari i problemi derivati.
Idealmente, si dovrebbe disporre di un insieme completo di tutti gli insiemi di parametri del modello (un'enumerazione completa) e classificare gli insiemi in base alla stabilità sull'oos. questo è in teoria, ma in pratica non è un compito fattibile.

 
Chiaramente non si tratta di un confronto diretto tra algoritmi che servono a cose diverse. È solo interessante vedere come convergono, forse ce ne sono di nuovi. Ho sentito parlare di tutti i tipi di architetture di NS di autori che si basano su altri principi di apprendimento, ma non li ho mai visti.
 
Maxim Dmitrievsky #:
E selezionare i modelli in base a metriche personalizzate può essere utile a volte, credo. Ma in linea di massima si tratta solo di un gioiello.

Il mio intuito mi dice che presto diventerà un luogo comune per il MO nel trading.

Non che sarà una garanzia di profitto, ma non usarlo sarà considerato una garanzia di fallimento).

 

San Sanych ha ragione sui problemi di applicabilità dei risultati dell'ottimizzazione alla storia a causa della non stazionarietà del mercato. Il problema è che tale ottimizzazione è l'unica cosa che abbiamo. Per esempio, i suoi stessi approcci alla selezione delle caratteristiche sono anch'essi ottimizzazioni sulla storia, anche se più complicate).

Oppure una sorta di crossvalidazione, ad esempio: anche questa è un'ottimizzazione sulla storia.

Motivazione: