L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 31
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Yuri, la prima prova sui tuoi dati:
Due diversi set di valori di parametri per l'allenamento. È degno di nota che l'AUC è al di sotto dello zoccolo sulla convalida incrociata.
Complessivamente, un'accuratezza del 51,5% sul test è il massimo che si è rivelato.
Non so nemmeno come si fa ad aggirare il 60%.
Dovremmo buttare via quella serie di predittori.
Se stupidamente prendiamo tutti gli incrementi di passo e alcuni oscillatori più di 100 predittori con più di 5000 osservazioni cioè H1 allora da tale insieme possiamo scegliere 10-15 predittori che non solo daranno meno del 40% di errore di predizione ma soprattutto non daranno un modello RIFERITO.
Dovremmo buttare via questa serie di predittori.
Se stupidamente prendiamo incrementi di tutto con pochi oscillatori su 100 predittori con più di 5000 osservazioni, cioè H1, da tale insieme possiamo scegliere 10-15 predittori che non solo daranno errore di predizione inferiore al 40%, ma soprattutto NON daranno un modello RIPROVATO.
In generale, non ho mai avuto una precisione di classificazione migliore del 51,5%. Di conseguenza, anche il resto della metrica sarà vicino all'indovinare casuale.
L'equilibrio delle risposte sul test è quasi perfettamente 50/50.
Yuri, aspetto con ansia le tue rivelazioni.
In generale, non ho mai avuto una precisione di classificazione migliore del 51,5%. Di conseguenza, anche il resto della metrica sarà vicino all'indovinare casuale.
Le risposte equilibrate sul test sono quasi perfettamente 50/50.
Yuri, sto aspettando le tue rivelazioni.
Non sto nascondendo nulla. Per la vecchia versione i cui risultati ho già dato sopra, tutte le informazioni sono in accesso aperto:
Descrizione del metodo di costruzione del classificatore binario: https://sites.google.com/site/libvmr/
Codice sorgente Java con commenti: https://sourceforge.net/p/libvmr/code/HEAD/tree/trunk/
Costruzioni: https://sourceforge.net/projects/libvmr/files/
Yuri, grazie.
Se l'insieme è linearmente separabile, allora il numero di potenziali iperpiani di separazione è infinito. In tal caso bisogna trovare qualche criterio per identificare un iperpiano adeguato. Uno di questi criteri è stato formulato per il metodo dei vettori di riferimento nel libro: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Mosca: Nauka, 1974. Più precisamente, molti criteri diversi sono considerati in questo libro.
Sia SVM che VMR sono metodi vettoriali di riferimento.
Quale metodo sia migliore o peggiore può essere discusso a lungo. Tuttavia, si può prendere e controllare la generalizzabilità e poi tutto andrà a posto.
Se l'insieme è linearmente separabile, allora il numero di potenziali iperpiani di separazione è infinito. In tal caso è necessario trovare qualche criterio per identificare un iperpiano adeguato. Uno di questi criteri è stato formulato per il metodo dei vettori di riferimento nel libro: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Mosca: Nauka, 1974. Più precisamente, molti criteri diversi sono considerati in questo libro.
Sia SVM che VMR sono metodi vettoriali di riferimento.
Quale metodo sia migliore o peggiore può essere discusso a lungo. Tuttavia, è possibile prendere e controllare la capacità di generalizzazione, e allora tutto starà sui luoghi.
I problemi dovrebbero essere risolti man mano che arrivano, e mettere il carro (modello) prima del cavallo (predittori) è un esercizio assolutamente inutile. Tanto più per confrontare i carri, quando non si sa cosa vi sia imbrigliato e se sia imbrigliato del tutto.
Prima di applicare qualsiasi tipo di modello è necessario ripulire la lista dei predittori dal rumore, lasciando solo i predittori che sono "rilevanti" per la variabile obiettivo. Se questo non viene fatto, si può facilmente scivolare nella costruzione di modelli basati sugli anelli di Saturno, i fondi di caffè e altri predittori che sono stati ampiamente utilizzati nella pratica per diverse centinaia di anni.
IlDr. Trader ha cercato di fare il lavoro di rimozione del rumore dal suo set di predittori.
Il risultato è negativo.
Penso che la ragione del risultato negativo sia il piccolo numero di osservazioni con un numero molto grande di predittori. Ma questa è la direzione in cui scavare prima di applicare QUALSIASI modello.
Se l'insieme è linearmente separabile, allora il numero di potenziali iperpiani di separazione è infinito. In tal caso è necessario trovare qualche criterio per identificare un iperpiano adeguato. Uno di questi criteri è stato formulato per il metodo dei vettori di riferimento nel libro: Vapnik V. N., Chervonenkis A. Y. The theory of pattern recognition. Mosca: Nauka, 1974. Più precisamente, molti criteri diversi sono considerati in questo libro.
Sia SVM che VMR sono metodi vettoriali di riferimento.
Quale metodo sia migliore o peggiore può essere discusso a lungo. Tuttavia, è possibile prendere e controllare la capacità di generalizzazione, e allora tutto starà sui luoghi.
R ha tutto il necessario. Vedere fTrading::sharpeRatio.
Oh, e anche PerformanceAnalitics non sarebbe male dare un'occhiata.
Buona fortuna