L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2646
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Curiosamente, questo PRIM incorpora le stesse idee che sto cercando di realizzare.
Ho letto l'articolo, ma ci sono alcune confusioni:
1. Qual è il processo di quantizzazione per la suddivisione in confini? Si tratta di una partizione uniforme con un determinato passo?
2. È chiaro con i confini - lo faccio anch'io, ma hanno un ulteriore ritaglio sull'immagine - il secondo ritaglio è solo l'esclusione del campionamento?
3. Se ho capito bene, loro, come me, considerano ogni predittore separatamente - trovando le cosiddette "scatole", ma non ho capito dalla descrizione come vengono combinati questi diversi predittori.
Lo svantaggio di questo metodo è che valuta la stabilità degli indicatori attraverso un campionamento bootstrap(prendendo a caso una determinata percentuale del campione dall'intero campione), il che non permette di comprendere la dinamica della stabilità degli indicatori, che a sua volta è importante per il trading, perché il pattern può esistere all'inizio del campione, ma scomparire completamente alla fine dello stesso.
Avete dei miglioramenti da apportare a questo metodo?
Da quanto ho capito, si tratta di una modifica di ciò che si fa di solito quando si costruisce un albero decisionale. A ogni passo si cerca una variabile e un pezzo che può essere morso da essa - lo chiamano peeling. Tra tutti i passi possibili si scelgono quelli che costruiscono una "traiettoria ottimale", ovvero la dipendenza dell'obiettivo medio dal numero di punti rimanenti. La traiettoria viene utilizzata anche per determinare il momento in cui l'algoritmo si ferma (quando non c'è un miglioramento apprezzabile quando si riduce la scatola).
L'approccio è interessante innanzitutto perché dimostra che gli algoritmi di costruzione degli alberi possono e devono essere modificati.
Da quanto ho capito, si tratta di una modifica di ciò che si fa di solito quando si costruisce un albero decisionale. A ogni passo, si cerca una variabile e un pezzo che può essere morso da essa - lo chiamano peeling. Tra tutti i passi possibili si scelgono quelli che costruiscono una "traiettoria ottimale", ovvero la dipendenza dell'obiettivo medio dal numero di punti rimanenti. La traiettoria viene utilizzata anche per determinare il momento in cui l'algoritmo si ferma (quando non c'è un miglioramento apprezzabile quando la scatola viene ridotta).
L'approccio è interessante innanzitutto perché dimostra che gli algoritmi di costruzione degli alberi possono e devono essere modificati.
Vedo la pulizia dei dati, ma nessun accenno al metodo di costruzione dell'albero, che, diciamo, viene modificato. Quindi si presume che, dopo la pulizia dei dati, l'albero venga semplicemente costruito. L'albero viene costruito con la suddivisione delle caselle - in base ai loro limiti o ciò che non è incluso nella casella viene sostituito da zeri (o da un'altra variabile che aggrega tali stati)?
2645 (duemilaseicentoquarantacinquesima !!!) pagina. I partecipanti attivi hanno ancora intenzione di riunirsi per iniziare qualcosa per dimostrare in futuro la possibilità di mostrare qualcosa di diverso dal 50/50 non in tester :-)
In realtà c'è molto da fare, in termini di codice - solo che non ho abbastanza energia per tutte le idee, ecco perché tutto è lento.
Vedo la pulizia dei dati, ma non si parla di un modo per costruire un albero che sia, ad esempio, modificato. Quindi si presume che dopo la pulizia dei dati l'albero venga semplicemente costruito. È costruito da spaccature di caselle - in base ai loro limiti o ciò che non è incluso nella casella è sostituito da zeri (o da un'altra variabile che aggrega tali stati)?
Mi sembra abbastanza normale che un semplice algoritmo funzioni solo su una porzione limitata dell'insieme dei predittori.
Si potrebbe procedere a una rimozione graduale dal campione di ciò che rientra nelle caselle "buone" e applicare l'algoritmo al resto. In sostanza, sarebbe simile al bousting. Probabilmente si può fare in modo simile a randomforest: prendere un ampio insieme di predittori e per ogni sottoinsieme trovare diverse caselle.
Utilizzare il metodo di uno scrittore che è diventato scrittore perché non riusciva a trovare un libro interessante per sé e ne ha scritto uno solo).
https://www.mql5.com/ru/blogs/post/746398
Non si può andare dietro le quinte, solo quello che si può scrivere qui.
wai!
Ti capisco, hai una formazione e un'esperienza particolare, a differenza degli "attivisti"... (hai esperienza economica e professionale nei centri per il divorzio, giusto?)
ma quante volte puoi prenderli in giro?
wai!
Ti capisco, hai una formazione e un'esperienza particolare, a differenza degli "attivisti".... (avete esperienza economica e professionale in centri per il divorzio?).
ma quante volte puoi prenderli in giro?
E perché tanta aggressività? Nessuno ti deve niente qui, le persone stanno comunicando sull'argomento, forse scriveranno altre 2000 pagine, è un loro diritto.