L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1374

 
elibrario:

Cioè l'allineamento è raccolto dal metodo suggerito da Vladimir?

Probabilmente non è proprio quello che pensavo sarebbe stato. Non lo so, non l'ho usato, devo leggere la guida

C'è un posto dove leggere di questi parametri?
 
elibrario:

Questi pesi possono essere alimentati non solo nel booster, ma anche nel NS. Apparentemente la metodologia è comune a tutti i sistemi MoD.
Il primo esperimento con la diminuzione dell'influenza dei vecchi dati non ha mostrato alcun miglioramento.

Quando si allena su 30000 linee il test sembra migliore di quando si allena su 80000 linee. A 80000 ci sono meno scambi e l'errore è maggiore. Ho provato a diminuire il peso in proporzione (da 1 per il fresco a 0,5 per il vecchio) e i risultati sono quasi gli stessi.


Apparentemente è ancora per l'allineamento della dispersione, come indicato da Maxim, con il metodo indicato da Vladimir.

Sì, sto parlando della fattibilità di ridurre i pesi per quelle righe in cui il partizionamento dei predittori deve essere spostato a un livello inferiore dell'albero. Dare semplicemente dei pesi ai dati più recenti potrebbe avere senso, se consideriamo che il mercato è cambiato...

 
Maxim Dmitrievsky:
C'è un posto dove leggere di questi parametri?

Non ho prestato attenzione a questa cosa prima

 

Ha fatto un prototipo della TS sulla NS. Apertura di uno scambio secondo le previsioni NS, tempo di previsione - 5 m. Chiusura dell'affare in 5 minuti dopo l'apertura. Non c'è nessun monitoraggio dell'accordo.

Ecco il primo risultato:

x - numero di trade, y - profitto in pip. Le commissioni ecc. non sono considerate. L'intervallo del test è di 3,5 mesi.

Non c'è bisogno di fare trading fino al 60° scambio, è fino alla chiusura precedente dei futures, la previsione non è molto possibile lì. I salti bruschi, sospetto, sono lacune infragiornaliere.

E il codice Python. Non potrebbe essere più semplice.

def Long(i): # сделка Long
    print('long')
    profLS.append(SD.history[i+5][c.c] - SD.history[i][c.c] )
    return i + 5

def Short(i):  # Сделка Short
    print('short')
    profLS.append(SD.history[i][c.c] - SD.history[i+5][c.c] )
    return i + 5

while i < LenHist:
    x = []
    for j in range(0, 20): #Подготовка данных для НС
        x.append((SD.history[i-j][c.c]/SD.history[i][c.c]-1)*1000)
    out = MLP.Predict([x]) # запрашиваем прогноз НС
    if out >= 3.0:
        i = Long(i)       
        tmp.append('L')
    elif out <= -3.0:
        i = Short(i)        
        tmp.append('S')
    i += 1
 
elibrarius:

Non ho prestato attenzione a questa cosa prima

Non sono riuscito a trovarlo sul sito web di xgboost, ma c'è una sezione "parameter tuning" ed è tutto sul trade-off bias-varianza

È un po' simile a quello che stavo pensando io.

Non lo uso, sono solo curioso.

 
Yuriy Asaulenko:

Ha fatto un prototipo della TS su NS. Chiude l'affare 5 minuti dopo l'apertura (tempo di previsione). Non c'è monitoraggio del commercio.

Ecco il primo risultato:

Per x - numero di trade, per y - profitto in pip. Le commissioni ecc. non sono considerate. L'intervallo del test è di 3,5 mesi.

Non c'è bisogno di fare trading fino al 60° scambio, è fino alla chiusura precedente dei futures, la previsione non è molto possibile lì. I salti bruschi, sospetto, sono lacune infragiornaliere.

E il codice Python. Non potrebbe essere più semplice.

Sembra interessante tenendo conto della chiusura notturna e non aprire alle 10:00?

 
Aleksey Vyazmikin:

Sembra interessante, ma si tiene conto della chiusura per la notte e della mancata apertura alle 10:00?

Niente è preso in considerazione. Flusso continuo di storia Chiudi direttamente a NS. Apriamo secondo le previsioni NS e chiudiamo in 5 metri.

 
Maxim Dmitrievsky:

non ho trovato un'impostazione del genere sul sito web di xgboost, ma c'è una sezione "parameter tuning" ed è tutto sul trade-off bias-varianza

È un po' simile a quello che stavo pensando io.

Non lo uso, sono solo curioso.

Nella descrizione in PDF del pacchetto per la funzione xgb.train c'è scritto:

weight - un vettore che indica il peso per ogni riga dell'input.

E questo è tutto.

ELM ha lo stesso. L'ho visto da qualche altra parte.

 
elibrario:

La descrizione in PDF del pacchetto per la funzione xgb.train dice:

weight - un vettore che indica il peso per ogni riga dell'input.

Questo è tutto.

Ho chiesto al ragazzo che si occupa di boost, forse ti darà una risposta più tardi.

 
Yuriy Asaulenko:

Nulla è contabilizzato. Flusso continuo di storia Chiudi direttamente sulla NS. Apriamo secondo le previsioni, in 5 m chiudiamo stupidamente.

Ho ottenuto buoni risultati usando Si in allenamento, ma si è rivelato irreale chiudere alle 10:00 da fermo senza tirare fuori, il che ha falsato molto il risultato.

Motivazione: