L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3164

Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Come effettuare la ricerca? Esaminare tutti i pezzi (ad esempio 100 per 5000 pp) e vedere quanto successo hanno le altre 500.000 righe su quel modello?
Sì, è possibile estrarre a caso i campioni invece dei pezzi in fila, è più corretto.
Mi sono venute le lacrime agli occhi, stavo ridendo così tanto).
Ho chiesto a Bard di scrivere in russo, ha scritto con un errore, capita. Il russo non è la mia lingua madre, lo uso solo qui in sostanza...
e lui mi ha risposto).
Hai capito?
Ha iniziato a trollarmi )))
Questo è solo brutale))))
Non ti sta trollando.
Hai scritto ruSki - che è "russo" in serbo.
Ecco perché ti sta scrivendo in serbo.
Non ti sta trollando.
Hai scritto russki - che è serbo per "russo".
Ecco perché ti sta scrivendo in serbo.
Ahh))))
Interessante articolo sugli alberi e sull'apprendimento per rinforzo in essi.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
Ho testato l'algoritmo su dati di mercato...
L'algoritmo è stabile sui nuovi dati rispetto a Forest....
l'algoritmo non viene riqualificato, su tutti i campioni di convalida il risultato è migliore di quello del campione di prova o molto migliore, non ho visto risultati peggiori....
Akurasi è in media del 2-4% migliore di Forrest. Se Forrest ha 0,58, RLT ha ~ 0,62.
In ogni caso, secondo i primi test, l'algoritmo è valido, ma richiede molto tempo per essere appreso....
Fatto in casa. Le possibilità di sperimentazione sono illimitate....
Già. Non ha senso discutere di quelli fatti in casa.
Perché perdere tempo con quelli fatti in casa? Ce ne sono decine non fatti in casa con algoritmi che sono praticamente utilizzati da milioni di utenti.....
ha testato l'algoritmo sui dati di mercato.
L'algoritmo funziona in modo costante sui nuovi dati rispetto a Forest....
l'algoritmo non si riqualifica, su tutti i campioni di validazione il risultato è migliore rispetto al campione di prova o molto migliore, non ho visto di peggio....
Akurasi è in media migliore del 2-4% rispetto a Forrest, quindi se Forrest ha 0,58, RLT ha ~ 0,62.
In ogni caso, secondo i primi test, l'algoritmo è valido, ma richiede molto tempo per essere appreso....
Secondo la loro teoria, dovrebbero esserci alcuni tratti "forti" che funzionano bene e il problema è separarli dal resto dei tratti "deboli". Nel loro campo, la genetica, è probabilmente così. Ma la nostra situazione è ovviamente diversa: i tratti sono approssimativamente uguali in forza, spesso allineati, e la loro valutazione di forza può cambiare nel tempo.
In generale, se si trattasse solo di selezionare tratti informativi, San Sanych, con il suo metodo segreto, sarebbe diventato un miliardario molto tempo fa).
La loro teoria presuppone che ci siano alcuni tratti "forti" che funzionano bene e l'unico problema è separarli dal resto dei tratti "deboli". Nel loro campo, la genetica, è probabilmente così. Ma la nostra situazione è chiaramente diversa: i tratti sono approssimativamente uguali in forza, spesso allineati, e la loro valutazione di forza può cambiare nel tempo.
In generale, se si trattasse solo di selezionare tratti informativi, San Sanych, con il suo metodo segreto, sarebbe diventato un miliardario molto tempo fa).
Ebbene, l'algoritmo funziona davvero ed è più stabile e akurasi meglio e kappa meglio... in altre parole, funziona meglio...
e funziona sia dopo 1000 nuove osservazioni che dopo 20 000 ... e l'errore è lo stesso o migliore.
i segni sono più o meno della stessa forza
Beh, e qui non posso essere d'accordo.
l'importanza di questo algoritmo
Sì... non ha senso discutere di quelli fatti in casa.
Perché perdere tempo con quelli fatti in casa? Ce ne sono decine di non fatti in casa con algoritmi che sono praticamente utilizzati da milioni di utenti.....
Non discuto di pacchetti, offro di discutere solo di idee.
Perché posso sperimentare e fare cose che non sono incluse in questi algoritmi - scatole nere.
Non discuto i pacchetti, suggerisco di discutere solo le idee.