L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 111

 
Mihail Marchukajtes:
E voi continuate a cercare di frenare il mercato dei minuti in 5 anni?????? Queste 71 osservazioni, due settimane di trading su 5 minuti se qualcosa...... E solo l'acquisto. Quindi, vai così..... O ti sei sgonfiato?
di cosa sta parlando... è pazzesco.
 
Dr.Trader:

Come ho detto prima, questa metrica è inutile.

I dati sono divisi a caso in 2 parti approssimativamente uguali, poi il modello è addestrato solo sulla prima parte e testato su entrambe in una volta sola. Una generalizzabilità di ~75% significa che il modello alla fine predice correttamente il 75% di tutti gli esempi del file.
Ci sono diversi modi in cui il modello può raggiungere il 75%:
1) Il modello è addestrato al 100% di precisione sui dati di addestramento, e fallisce completamente sui nuovi dati nella seconda parte del file, dove ottiene il 50% (lo stesso del lancio di una moneta). La media sarebbe esattamente il 75%. Questo è un pessimo sviluppo e sarà negativo nel commercio.
2) Il modello è stato addestrato al 75% di precisione sui dati di allenamento e ha mostrato lo stesso 75% sui dati di test, che è di nuovo il 75% in media. In questa situazione, questo è lo scenario migliore, c'è la possibilità di guadagnare qualcosa.
3) Qualsiasi opzione intermedia tra queste due.

La tua opzione è probabilmente più vicina alla prima. Bisogna essere molto fortunati per fare trading con tali risultati, presumo che non abbiate perso il vostro deposito solo grazie all'indicatore che funge da segnale principale (sequent, o altro). Penso che un Expert Advisor basato su questo indicatore darà un risultato buono come l'indicatore + jPrediction.

Come fai a sapere come calcolare il potere di generalizzazione? Reshetov lo sa, penso che il calcolo sia basato solo su dati di test, come ha detto prima...... Se le sequenze classiche fossero praticabili non userei il predittore, ma ahimè... è drenante come tutto il resto. L'aggiunta del classificatore, invece, lo migliora abbastanza. Ancora una volta scriverò che 71 osservazioni sono il lavoro di TS per quindici giorni su 5 minuti. Questo è un intervallo abbastanza accettabile per questo lasso di tempo. Non sono abituato a modificare le griglie durante mezzo anno o più. Mi sono allenato per 2 settimane, ho guadagnato un giorno e ho finito, mentre voi state ancora cercando il graal. E sì, alleno modelli ogni giorno. Al mattino. La cosa buona è che il tempo di ottimizzazione è ora MOLTO ragionevole.....
 
mytarmailS:
Di cosa sta parlando... Sono un mucchio di stronzate.
Beh, cosa non capisci???? O è al di là della tua comprensione????
 
Mihail Marchukajtes:
Beh, cosa non capisci???? O è al di là della tua comprensione????

Ti chiedo come misuri la capacità totale e tu mi parli di anni di storia e di altre sciocchezze...

Io non posso misurare l'abilità generale in un modo e tu non puoi misurarla in un altro, ma tu non hai idea di come misurarla, tutto quello che puoi fare è guardare i numeri injPrediction senza la più pallida idea di dove e come vengono, così quando iniziano a farti domande specifiche inizi a parlare senza senso di anni di storia ecc. smettila... Per favore...

 
mytarmailS:

Ti chiedo come misuri la capacità totale e tu mi parli di anni di storia e di altre sciocchezze...

Io non posso misurare l'abilità generale in un modo e tu non puoi misurarla in un altro, ma non hai idea di come misurarla, tutto quello che sai fare è cercare i numeri neljPrediction senza la più pallida idea da dove e come vengono, così quando ti fanno domande specifiche inizi a parlare senza senso di anni di storia ecc. smettila... per favore...

Forse ho già spiegato che uso il predittore di Reshetov, come misura la generalizzabilità, queste sono domande per Yury. Chiedeteglielo. Anche se ha dato le formule e le ricordo in termini generali, ma non capisco perché me lo chiede. Sono solo un utente del suo programma e non più.....
 
Mihail Marchukajtes:
Penso che il calcolo sia basato solo su dati di test

Se è così, sono contento, è molto meglio.

In ogni caso il fronttest mostra risultati molto migliori. Ho diviso il tuo file in 2 parti (senza mischiare, solo in ordine), la prima parte ha 50 linee, la seconda 19. Così jPrediction non ha accesso agli esempi del secondo file, e saranno davvero nuovi dati per il modello.

Alla fine sul secondo file JPrediction ha dato una risposta solo in 9 casi. Giusto in 5 casi, sbagliato in 4. La precisione è di circa il 50%, niente di buono in questo risultato.

File:
 
Dr.Trader:

Se è così, sono contento, è molto meglio.

Comunque, il fronttest mostra un risultato molto migliore. Ho diviso il tuo file in 2 parti (senza mischiare, solo in ordine), la prima parte ha 50 linee, la seconda 19. Così jPrediction non ha accesso agli esempi del secondo file, e saranno davvero nuovi dati per il modello.

Alla fine sul secondo file JPrediction ha dato una risposta solo in 9 casi. Corretto in 5 casi, sbagliato in 4. La precisione è di circa il 50%, niente di buono in questo risultato.

D'accordo. Necessità di lavorare sui dati di ingresso.....
 
Dr.Trader:

Se è così, sono contento, è molto meglio.

In ogni caso, il fronttest mostra risultati molto migliori. Dividi il tuo file in 2 parti (nessun rimescolamento, solo in ordine), la prima parte ha 50 linee, la seconda 19. Così jPrediction non ha accesso agli esempi del secondo file, e saranno davvero nuovi dati per il modello.

Come risultato sul secondo file JPrediction ha dato una risposta solo in 9 casi. Corretto in 5 casi, sbagliato in 4. La precisione è di circa il 50%, non c'è niente di buono in questo risultato.

19, 50, che è più. Prendete un qualsiasi esempio dal database di dataset con almeno centinaia di righe.

Per me questo software non è adatto, se non altro perché io stesso preferirei prendere i parametri e scomporre i dati. Ma come entry level penso che sarebbe interessante.

 

Reshetov!

La mia offerta è ancora valida.

 
mytarmailS:

Ciao Yuri!

Ci sono domande )) sulla ricerca sequenziale ...

diciamo che abbiamo 10 predittori

1, 2, 3, 4, 5, 6, 7, 8, 9, 10

il gruppoverde è il gruppo di predittori che ha mostrato la migliore capacità di generalizzazione esattamente a questo gruppo saranno aggiunti altri predittori N+1

il grupporosso, è il gruppo che è leggermente peggiore di quello verde e non prenderà parte ai test, tutti i test sono già concentrati sul gruppo verde

Domanda: e se dopo tutte le prove con altri N+1 predittori uno per uno, si scopre che nel risultato finale il gruppo rosso ha una maggiore capacità di generalizzazione, anche questo è abbastanza realistico, o sto fraintendendo qualcosa ???? Si prega di chiarire.

Se volete ottenere una risposta univoca senza guardare i dati e gli algoritmi, è meglio che andiate da SanSanych Fomenko, perché lui con una faccia intelligente vi ammonirà con istruzioni "precise e preziose" su qualsiasi argomento, indipendentemente dalla sua ambiguità.

E se vuoi una risposta più precisa, allora fai un test A/B, cioè in un caso prova ad attaccare il rosso con il nero al verde, e nell'altro solo il nero. Qualunque opzione ottenga la migliore generalizzabilità in base ai risultati dell'esperimento è quella più corretta per il tuo compito.

Il punto è che i risultati dell'esperienza sono sempre il criterio della verità.

Per esempio, oggi stavo testando la centratura dei dati per jPrediction. I risultati sono stati disastrosi o leggermente migliori su diversi campioni. Anche se per la griglia di backpropagation, la centratura dà un miglioramento notevole. Ha dovuto lasciare la normalizzazione lineare.

E se non facessi un test A/B, ma invece dell'esperienza, prendessi la "conoscenza pronta" da qualche piccolo libro o conferenza sull'apprendimento automatico, o chiedessi a qualche saccente, otterrei la risposta che la centratura è presumibilmente "migliore" della normalizzazione lineare. Anche se l'esperienza dimostra che questo non è univocamente vero per tutti gli algoritmi.

Questo è il tipo di torta.

Motivazione: