L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1545

 
mytarmailS:

Cerca di prevedere non il segno di aumento, ma per esempio il prezzo del prossimo ginocchio a zig zag o qualcosa di meglio. o qualcosa del genere, dovresti usare la regressione invece della classificazione, ma la regressione non un passo avanti, ma cercare l'estremo.

Ahimè, i miracoli non accadono mai, le variabili aggregate come i prezzi (extremum, ecc.) non sono previste affatto, beh, non molto meglio che con una bacchetta (cioè niente) e quelle relative (deviazione dei prezzi dall'extremum) sono pessime come gli incrementi.

 
Il Graal:

Ahimè, i miracoli non accadono mai, le variabili aggregate come il prezzo (extremum, ecc.) non possono essere previste affatto, beh, non molto meglio che con una bacchetta (cioè niente), e le variabili relative (deviazione del prezzo dall'extremum) fanno male quanto gli incrementi.

Vi dirò questo, l'estremo che sarà il più significativo nella prossima ora, per esempio, è più facile da prevedere che il valore di una candela trailing, o il colore della candela, o la direzione di uno zigzag, o...

Almeno è vero per me e ha una spiegazione ragionevole.

 
Maxim Dmitrievsky:

python tester, liba - ce ne sono molti diversi

Come per tutto il resto - ora sto correndo con parametri diversi e l'entusiasmo è sparito, lo stesso overfit come nella foresta

è facile vedere dove c'è una traccia e dove c'è una prova. Cioè, in sostanza, non è cambiato nulla, il catbusto non ha dato un vantaggio.

Proverò più tardi con lstm.


Se pensi che il sovrallenamento, poi smettere di generare alberi prima, ma a giudicare dal numero di offerte ci più probabile sotto-allenamento...

Cosa si ottiene per diversi campioni di precisione e richiamo?

Hai un campione nel file - sarebbe interessante provare a confrontare le dinamiche di allenamento con i miei dati, se ho un buon modello, te lo manderò.


A proposito, ho deciso di provare a togliere le foglie da CatBoost, non so se ne troverò di buone tra loro o l'idea del boost stesso non lo sopporta, cosa ne pensi?

 
mytarmailS:

Vi dirò questo, l'estremo che sarà il più significativo nella prossima ora per esempio, è più facile da prevedere che il valore di una candela di trailing, o il colore della candela, o la direzione di uno zig-zag o...

Almeno, questo è vero per me e c'è una spiegazione ragionevole.

Cosa significa "l'estremo più significativo" - come si controlla in seguito se è significativo o no?

Qual è una spiegazione ragionevole per tutto questo - abbastanza interessante.

 
Aleksey Vyazmikin:

Se pensi al sovrallenamento, allora smetti di generare alberi prima, ma a giudicare dal numero di scambi è più probabile che ci sia un sottoallenamento...

Cosa si ottiene per diversi campioni di precisione e richiamo?

Hai un campione nel file - sarebbe interessante provare a confrontare le dinamiche di allenamento con i miei dati, se ho un buon modello, te lo manderò.


A proposito, ho deciso di provare ad estrarre le foglie degli alberi da CatBoost - non so se ne troverò di buone tra queste, o l'ideologia stessa del boosting non lo suggerisce, cosa ne pensi?

l'apprendimento eccessivo nel senso di una generalizzazione debole. Ho già scritto sopra come si può aggirare il problema, ma ci sono approcci più eleganti, ne sono sicuro.

nessun problema con la qualità del treno + la convalida.

 

Vedo che tutti cercano di formare la rete con l'aiuto di un insegnante.

Qualcuno ha provato ad allenarsi su una funzione target, come il fattore di recupero?

 
Aleksey Vyazmikin:
per ottenere le foglie d'albero da CatBoost - non so se ci sono dei buoni esemplari tra loro, o pensi che l'ideologia del boosting non lo suggerisca?

No, non è così.

Il primo albero in XGBoost è un modello grezzo. Tutti gli altri alberi correggono il primo con coefficiente microscopico. Lì non si può far funzionare nulla individualmente, danno buoni risultati solo con tutta la folla.
Nel catbusto apparentemente lo stesso principio di base, con le sue peculiarità.
 
Maxim Dmitrievsky:

Come per tutto il resto - ora sto correndo con parametri diversi e l'entusiasmo è sparito, lo stesso overfit della foresta

è facile vedere dove si trova la pista e dove si trova il test. Questo è, infatti, nulla è cambiato, katbust non ha dato vantaggi.

Ovviamente non ha senso complicare il sistema con l'insieme di MQL + Python + Catbust. E cercherò delle regolarità con la foresta di algibu.

Se c'è un modello, lascia che la foresta lo impari al 90%, non al 99% come un gattopardo. L'importante è trovarlo, e poi inseguire le percentuali. Al momento, entrambi sono circa il 50%.

 

Sembra che con queste foreste tutti si siano dati alla macchia,

ed è impossibile uscire da lì senza aiuto ))))

 
elibrario:

A quanto pare non ha senso complicare il sistema con MQL + Python + Catbust. E per cercare regolarità con la foresta di Algiba.

Se c'è una relazione, lascia che la foresta ti insegni il 90% delle volte, e non il 99% come il Catbust. L'importante è trovarlo, e poi inseguire le percentuali. Al momento otteniamo circa il 50% in entrambi i casi.

Se non hai niente con cui confrontarlo, non capirai mai niente.

Motivazione: