L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1322

 
Yuriy Asaulenko:

Ragazzi, l'argomento riguarda il MO, non gli stili di trading e gli stop. Cosa ha a che fare questo con loro?

Così volevo discuterne nella NS, ma come si è scoperto non c'è nessuno con cui discuterne.

 
Yuriy Asaulenko:

Non più tardi di ieri, è venuta fuori una conversazione sulla previsione delle sinusoidi, e mi sono ricordato del mio vecchio argomento:

(Maxim, stavi ancora prendendo in giro questo argomento. Sono vendicativo e scrivo tutto).

Devo dire che è stato fatto invano, ma l'argomento si è arenato e non è mai entrato nel vivo. Forse perché la formulazione non era molto chiara.

In realtà, non abbiamo bisogno di risolvere alcun problema. Dovete prendere una funzione, come quella nel soggetto o, ancora meglio, una più complicata. Creare uno strumento artificiale con questa funzione ed eseguirlo nel tester su una strategia già funzionante. Idealmente, il profitto dovrebbe andare in eccesso sul TS di lavoro. Ah, dimenticavo, la funzione deve essere normalizzata in anticipo in modo che corrisponda approssimativamente al simbolo su cui è impostato il TS. Poi possiamo aggiungere del rumore e vedere cosa succederà.

Non faccio previsioni e non ho un TS pronto, quindi non posso controllarlo nel prossimo futuro. Ma in un futuro lontano, ho intenzione di farlo.

Ora sul perché abbiamo bisogno di tutto questo.

Supponiamo di dover insegnare la previsione NS (o altri MO). Di solito i pesi iniziali del NS sono inizializzati in modo casuale e se il NS entra in min-max durante l'allenamento, è una questione molto grande.

Facciamo quanto segue.

1. Generare una funzione non casuale vicina al mercato BP e usarla per insegnare un NS inizializzato in modo casuale. Controlla e così via. Ora il nostro NS è vicino a ciò di cui abbiamo bisogno in termini di impostazioni, ma finora non siamo in grado di risolvere il vero problema.

2. Conduciamo l'addestramento del NS (vedi punto 1) usando BP reale. Abbiamo già qualche certezza che le impostazioni preliminari di NS sono da qualche parte nelle vicinanze delle aree di min-max e nel corso del pre-addestramento vanno dove dovrebbero, ma non a qualche min-max casuale.

L'analogia è con uno scolaro a cui si insegna prima a risolvere problemi semplici su un argomento, e poi quei problemi diventano più complicati. Insegnare a scuola è più efficace che cercare di fargli risolvere problemi complessi fin dall'inizio.

In generale, il metodo non è un'apertura, da qualche parte nella letteratura si è verificato, ma ci sono molti libri, e io solo non ricordo. In ogni caso, ho pensato alla sua attuazione. Ebbene, il primo esperimento di tentare una ST pronta per predire una funzione analitica, in generale, è necessario come una tappa.



se questo non avesse fatto fiasco, 2 pagine fa avreste visto un esempio con un fe

Non capisco l'idea dell'inizializzazione dei pesi e così via. allora avete bisogno di una griglia di preapprendimento, e che senso ha allenarsi su qualcosa che non corrisponde affatto a ciò che deve essere previsto

Immagino che tu stia cercando di imitare le basi dell'apprendimento con rinforzo

 
Maxim Dmitrievsky:

Se l'idiota non avesse fatto un errore, 2 pagine fa avreste visto un esempio con un occhio di f.

Non capisco l'idea di inizializzare i pesi e cose del genere, poi hai bisogno di una griglia di preapprendimento, e che senso ha allenarsi su qualcosa che non corrisponde nemmeno a ciò che devi prevedere

Immagino che tu stia cercando di rappresentare le basi dell'apprendimento per rinforzo.

No, non hai bisogno di una griglia di preapprendimento.

1. Pre-training su dati vicini e chiaramente prevedibili. Si può preparare da dati reali - spline, polinomi, Fourier o altro.

2. Post-formazione della rete secondo p. 1 (con inizializzazione non casuale) sui dati reali.

Per le previsioni posso vedere come farlo, e penso che possa migliorare i risultati. Per la classificazione, non so cosa fare.

Esempio con funzione - non si tratta di questo. Ci sono molti esempi di questo tipo.

 
Maxim Dmitrievsky:

Alexey ha scelto non il peggior catbusto, uno dei migliori per la ricerca, di gran lunga. Si usa al CERN, per esempio, per analizzare i risultati dei collisori... che si occupa della casualità quantistica).

Molto interessante). Il CERN XGBoost si è imbattuto per caso.

Non sorprende che il CERN abbia riconosciuto questo come il miglior approccio per classificare i segnali del Large Hadron Collider. Questo particolare problema posto dal CERN richiedeva una soluzione che fosse scalabile per gestire dati generati al ritmo di 3 petabyte all'anno e distinguere in modo efficiente un segnale estremamente rado dal rumore di fondo in un processo fisico complesso. XGBoost è diventato la soluzione più utile, semplice e affidabile. (6 SETTEMBRE 2018)

__________________________________

CatBoost è stato introdotto dal Centro europeo per la ricerca nucleare (CERN) nella ricerca al Large Hadron Collider (LHCb) per combinare le informazioni provenienti da diverse parti del rivelatore LHCb nella conoscenza delle particelle più accurata e aggregata possibile. Utilizzando CatBoost per combinare i dati, gli scienziati sono stati in grado di migliorare le prestazioni qualitative della soluzione finale, dove i risultati di CatBoost sono stati migliori di quelli ottenuti utilizzando altri metodi[6][7].

_______________________________________

È più o meno la stessa cosa. Quindi qual è Catbust oXGBoost? ) Mi chiedo chi ha imbrogliato da chi? ))

 
Aleksey Vyazmikin:

Il futuro è incerto, i modelli vanno e vengono, è normale, ma è discutibile che debbano necessariamente essere a breve termine. Non ho un campione molto grande a causa della strategia di tendenza, quindi penso che sia irragionevole ridurlo ulteriormente.

Tuttavia, ho deciso di condurre un esperimento sull'efficacia della formazione su diverse proporzioni del campione di formazione e di prova coinvolte nella formazione. Il passo sarà del 10%, cioè all'inizio il campione di allenamento sarà del 90% e il campione di test del 10%, e poi il campione di test sarà gradualmente aumentato del 10%. Ogni campione conterrà 200 modelli - vediamo cosa succede. Un'altra questione è come confrontare al meglio queste combinazioni, con un criterio medio o assoluto - le idee sono accettate.

Sui modelli a breve termine - da 10-15 min a max 1 ora la probabilità di qualsiasi evento significativo che cambi qualcosa è molto piccola, soprattutto quando abbiamo già inserito un accordo su un evento significativo. Tra più di un'ora - quello che succederà, almeno per me, è sconosciuto. Questo non è in opposizione a te, ma a sostegno della mia opinione).

Ho deciso di seguire il tuo percorso, con le mie modifiche e la mia visione del soggetto. Soprattutto perché tutti i predittori necessari sono già presenti. Mentre ho deciso di provare XGBoost, qualcosa mi sembrava - o non sono stato impressionato dai documenti di CatBoost (XGBoost, imho, è più chiaro), o qualcos'altro. Non ho ancora capito cosa c'è con il razionamento. Con NS, è difficile razionare tutto lì.

 
Yuriy Asaulenko:

Tutti quasi esattamente uguali. Quindi qual è Catbust oXGBoost? ) Mi chiedo chi ha imbrogliato da chi? ))

E sarebbe bene capire questo prima di creare modelli basati su di essi e rilasciarli nel caos del mercato.

Ricordo che circa mezzo anno fa hanno provato a testare CatBoost qui, poi a differenza di XGBoost non poteva imparare nemmeno dalla tabella di moltiplicazione.

Non so, forse ora hanno deciso che se non può imparare il semplice allora dovrebbero provarlo sul complesso, e forse è davvero forte.

E per determinarlo si potrebbero probabilmente usare i BP sintetici suggeriti sopra.

 
Ivan Negreshniy:

E sarebbe bene capire questo prima di creare modelli basati su di essi e rilasciarli nel caos del mercato.

Ricordo che circa mezzo anno fa hanno provato a testare CatBoost, poi, a differenza di XGBoost, non poteva imparare nemmeno sulla tabella delle moltiplicazioni.

Non so, forse ora hanno deciso che se non può imparare il semplice allora dovrebbero provarlo sul complesso, e forse è davvero forte.

E questo sarebbe probabilmente in grado di determinare che si potrebbe usare il BP sintetico suggerito sopra.

Almeno XGBoost ha una documentazione molto migliore, e altro. Il CatBoost ha, tranne i materiali di Yandex, pochissimi altri, a colpo d'occhio.

 
Yuriy Asaulenko:

Secondo i modelli a breve termine - da 10-15 min a max 1 ora la probabilità che qualche evento significativo cambi qualcosa è molto bassa, soprattutto perché siamo già entrati in un trade su un evento significativo. Tra più di un'ora - quello che succederà, almeno per me, è sconosciuto. Questo non è in opposizione a te, ma a sostegno della mia opinione).

Non considero la variabilità delle probabilità in questo modo come parte della mia strategia. Se il modello ha dato un segnale per entrare, allora entriamo, perché in questo momento (semplicemente parlando, secondo le statistiche ottenute nella formazione) ci sono condizioni favorevoli per esso e l'uscita nelle mie diverse versioni di TS è diversa - o da TP/SL, o solo da SL. Di conseguenza, la previsione non viene annullata prima della chiusura della posizione e può lavorare fino a tre ore. Significa che non sto prevedendo l'ora esatta, ma piuttosto la probabilità di tornare al prezzo che era x barre fa, in altre parole la fine del flat locale.

Ma ho scritto di tutt'altro, cioè della periodicità di ricorrenza del pattern identificato nel tempo, che se il pattern si è verificato durante tre anni e ha portato ad eventi prevedibili, allora c'è la possibilità in misura maggiore, che continui il suo lavoro anche nel quarto anno, mentre il pattern identificato in una piccola porzione del tempo di formazione può essere solo una descrizione di una situazione nella TF superiore (tendenza su un grafico settimanale).

Comunque, questa è la mia speculazione teorica, ora elaborerò i risultati dell'esperimento e la situazione sarà più trasparente, spero.

Yuriy Asaulenko:

Ho deciso di seguire la tua strada, con le mie modifiche e la mia visione del soggetto. Soprattutto perché tutti i predittori necessari sono già presenti. Mentre hanno deciso di provare su XGBoost, qualcosa mi sembrava - se docs CatBoost non impressionato (XGBoost, imho, più chiaro), o altro che cosa. Non ho ancora capito cosa c'è con il razionamento. Con NS, è difficile normalizzare tutto lì.

Catbust ha più opzioni, è la continuazione dello sviluppo dell'idea di XGBoost, il vantaggio principale e allo stesso tempo il minus sono gli alberi di dimensionalità fissa, che impediscono il re-training se il loro numero non è grande.

Niente deve essere normalizzato per una pura classificazione. Tuttavia, faccio una pre-elaborazione nei predittori, riducendo la gamma di valori, e decompongo la gamma stessa in gruppi empiricamente. Forse il risultato sarebbe stato migliore senza queste trasformazioni - non ho controllato. Da un lato gli sviluppatori dicono che non ho bisogno di convertire nulla da solo, dall'altro ci sono diverse impostazioni per l'algoritmo di conversione delle cifre, e inoltre posso usare la mia ripartizione da un file separato. Questo si riferisce a catbust, ma penso che la logica sia la stessa ovunque.

 
Ivan Negreshniy:

E sarebbe bene capire questo prima di creare modelli basati su di essi e rilasciarli nel caos del mercato.

Ricordo che circa mezzo anno fa hanno provato a testare CatBoost, poi, a differenza di XGBoost, non poteva imparare nemmeno sulla tabella delle moltiplicazioni.

Non so, forse ora hanno deciso che se non può imparare il semplice allora dovrebbero provarlo sul complesso, e forse è davvero forte.

E per determinarlo probabilmente si potrebbero usare i BP sintetici suggeriti sopra.

CatBoost e XGBoost hanno diverse profondità di alberi, ricordo che CatBoost è riuscito ad aggiungere un certo numero di alberi.

E per quanto riguarda la ricerca di funzioni diverse con gli alberi, è meglio cercarle con NS e alimentare i risultati come predittori per la classificazione. Comunque, non sono un sostenitore dell'alimentazione a prezzo crudo, ma Maxim ci è riuscito, anche se è necessaria una riqualificazione più frequente.

 

Per coloro che dubitano della capacità di NS di descrivere le funzioni


Motivazione: