L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2611

 
Renat Akhtyamov #:

99% di probabilità o 0,99 senza percentuale

Sei un uomo spaventoso!

Avere quel tipo di probabilità e comunicare con semplici mortali...? - che non è reale...

 
Serqey Nikitin #:

Sei un uomo spaventoso!

Avere una tale possibilità e comunicare con semplici mortali...? - che non è reale...

Andiamo ;)

il punto è che non importa quanto duramente ci provino i trader, alla fine la maggior parte di loro finisce per fare trading in controtendenza

guardare la distribuzione dei volumi sul CME, sono pubblicati dinamicamente in linea e il comportamento del prezzo

che ancora una volta dice solo una cosa - il prezzo è contro la maggior parte

comprato - prezzo giù e viceversa.

e così è stato e così sarà sempre

perché:

https://www.mql5.com/ru/forum/86386/page2605#comment_28636383

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2022.03.29
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Non è una buona idea fare una strategia basata sulle informazioni dell'ECM

perché.

non appena se ne accorgono, sanno come buttare fuori le informazioni sbagliate.

Ci sono stato, l'ho fatto ;)

[Eliminato]  

Risulta essere una sorta di boosting, come ha sottolineato Alexei

Miglioramento ad ogni iterazione, dato il campionamento dell'esame

Iteration: 0, R^2: 0.187883200953193
Iteration: 1, R^2: 0.23135332833695177
Iteration: 2, R^2: 0.5069635195005324
Iteration: 3, R^2: 0.6549692113098968
Iteration: 4, R^2: 0.49450581772674385
Iteration: 5, R^2: 0.727741771152099
Iteration: 6, R^2: 0.7155342473909062
Iteration: 7, R^2: 0.7577880020333465
Iteration: 8, R^2: 0.7519731839574526
Iteration: 9, R^2: 0.6484696911159258
Iteration: 10, R^2: 0.7919754252032625
Iteration: 11, R^2: 0.7434806103697286
Iteration: 12, R^2: 0.7829611167594436
Iteration: 13, R^2: 0.8423847977639594
Iteration: 14, R^2: 0.8755566220080022
Iteration: 15, R^2: 0.8073736447495541
Iteration: 16, R^2: 0.7756062175823373
Iteration: 17, R^2: 0.8767667338484959
Iteration: 18, R^2: 0.8658089653482818
Iteration: 19, R^2: 0.7976304450279426
Iteration: 20, R^2: 0.8335757510984808
Iteration: 21, R^2: 0.8236019726095158
Iteration: 22, R^2: 0.8590437311223307
Iteration: 23, R^2: 0.8425455355207566
Iteration: 24, R^2: 0.7897953478024325

Ma la parte posteriore non è buona (a sinistra), ma a volte è meglio.

Ci sono molte impostazioni, non le spiegherò in dettaglio. Ho descritto l'idea come meglio potevo.


[Eliminato]  

se si aspetta per 100 iterazioni


 
Maxim Dmitrievsky #:
La regolarità implica la ripetibilità. Non stai cercando un modello, stai facendo un'applicazione di convalida.
Il tuo algoritmo non tiene conto della ripetibilità delle dipendenze trovate, quindi non controlla se c'è un modello...

Ecco un esempio sulle tue dita.
Avete un campione di 100 osservazioni.
Potete costruire 100 regole che useranno una volta per previsione o trovare una regola che userà 100 volte...

Su quale approccio dovreste scommettere?

 
Maxim Dmitrievsky #:

Risulta essere una sorta di boosting, come ha sottolineato Alexei

Miglioramento ad ogni iterazione, dato il campionamento dell'esame

Ma la parte posteriore non è buona (a sinistra), ma a volte è meglio.

Ci sono molte impostazioni, non le spiegherò in dettaglio. Ho descritto l'idea come meglio potevo.


Fondamentalmente, ho solo bisogno di guardare 2 grafici (equity), tutti su OOS puro: 1 - primo modello, addestrato, senza alcuna caratteristica extra, 2 - dopo tutte queste procedure descritte. Puoi anche usare le metriche PF, RF e winrate. E così non è chiaro, qual è l'effetto, una bella curva di apprendimento è, come ho capito, su IS?

[Eliminato]  
Replikant_mih #:

Infatti, basta guardare due grafici (equity), tutti su OOS puro: 1 - il primo modello, addestrato, senza alcun fronzolo, 2 - dopo tutte queste procedure descritte. Puoi anche usare le metriche PF, RF e winrate. E così non è chiaro, qual è l'effetto, una bella curva di apprendimento è, come ho capito, su IS?

primo terzo del grafico - dati nuovi, non coinvolti nell'apprendimento

le immagini con 25 e 100 iterazioni mostrano un miglioramento a 100, anche se il massimo era intorno al 70
 
Maxim Dmitrievsky #:

C'è una domanda come questa:

Vengono utilizzati due modelli. Uno predice di comprare o vendere, l'altro di commerciare o non commerciare.

Prima viene addestrato il primo modello, poi guardiamo dove predice male, segniamo questi esempi come "non scambiare", gli altri buoni come "scambiare", poi addestriamo il secondo modello.

Il primo modello è testato non solo nell'area di addestramento ma anche nell'area aggiuntiva e il secondo modello è addestrato in entrambe le aree.

Ripetiamo questa operazione diverse volte, riaddestrando entrambi i modelli sullo stesso set di dati. I risultati migliorano gradualmente sui campioni. Ma non sempre sul campione di controllo.

In parallelo a questo teniamo un registro di bad trades cumulativo per tutti i passaggi, tutti i "bad" deals per "not to trade" sono raccolti in esso per l'addestramento del secondo modello e filtrati secondo un certo principio come più copie di bad deals per tutti i passaggi, più possibilità di segnarli come "not to trade"

Per esempio, per ogni data viene accumulata una certa quantità di operazioni sbagliate per tutte le iterazioni di formazione, dove questo numero supera una soglia (media, media), quelle operazioni sono contrassegnate come "non negoziare". Gli altri trade sono saltati, altrimenti sarebbe possibile escludere tutti i trade se ci sono molte iterazioni di allenamento.

Il coefficiente permette di regolare il numero di compravendite all'uscita, più è basso, più le compravendite sono filtrate

... a questo punto sono già stanco di scrivere ...

Come si può migliorare una tale combinazione di modelli in modo che migliori i suoi risultati su un nuovo terreno indipendente?
C'è qualche filosofia sul perché questo possa funzionare? A parte il fatto che i modelli si migliorano naturalmente (l'errore cala) ad ogni giro di retraining, ma come liberarsi del fit?

Illustrazione. Il grafico è diviso in 3 parti. L'ultimo allena il primo modello, il penultimo e ultimo il secondo, il primo terzo è un campione d'esame. Naturalmente l'ultima sezione sarà la migliore e il primo terzo la peggiore.

Qui ci sono state 15 iterazioni di riqualificazione di entrambi i modelli, utilizzando il log dei bad trades.

sembra un banale Multi-Label Classificaton - non dovremmo variare la combinazione dei modelli, ma la combinazione dei predittori - prima di tutto la divisione dei predittori in caratteristiche delle azioni smart & retail... perché naturalmente ci saranno segnali al contrario, ma i punti di entrata OTF (per la rottura dei livelli) - è già Edge per la selezione del modello (azione dtf o otf nel mercato)... imho

==========

o senza marcatura, ma solo con LSTM con possibilità di dimenticare il gate, in modo da non dover filtrare separatamente da 2 modelli... ma è tutta una questione di gusti...

ibm

Ho ottenuto una regressione su IBM (dati di test della fine del 2021 - lì la coda destra del grafico dei prezzi è rappresentata sul grafico del treno e del test)... ... semplicemente chiudendo...

pred

- ... Ho un banale MA - e funzionerà sempre in un trend (comunque funzioni), non in flat - il comportamento smart & retail dovrebbe essere ulteriormente filtrato (e il modello dovrebbe essere riprogettato per classificare in entrata e in uscita ...)

File:
[Eliminato]  
JeeyCi #:

sembra un banale Multi-Label Classificaton - non è la combinazione dei modelli che dovrebbe essere variata, ma la combinazione dei predittori - prima di tutto la divisione dei predittori in caratteristiche delle azioni smart & retail... perché naturalmente ci saranno segnali al contrario, ma i punti di entrata OTF (per la rottura dei livelli) - è già Edge per la selezione del modello (azione dtf o otf nel mercato)... imho

==========

o senza markup, ma solo con LSTM e strati, in modo da non dover filtrare separatamente da 2 modelli... ma è tutta una questione di gusti...

Ho ottenuto una regressione su IBM (dati di test della fine del 2021 - lì la coda destra del grafico dei prezzi è rappresentata sul grafico del treno e del test)... ... semplicemente chiudendo... - Abbiamo un banale MA - e funzionerà sempre in un trend (non importa come), non in flat - il comportamento smart & retail dovrebbe essere ulteriormente filtrato (e il modello dovrebbe essere riprogettato per classificare in entrata e in uscita ...)

Questo non è un multilabel, ha un significato diverso. Escludere i cattivi segnali iterativamente, lasciare quelli che sono ben previsti dal modello principale nel mucchio comune, e il secondo modello impara a separare il cattivo dal buono, vietare o consentire il commercio del primo

lstm produce sempre MA, testato molto tempo fa