Bisogno di aiuto sul risultato dell'ottimizzazione - pagina 4

 
sergeyrar:

Grazie mille per il vostro tempo! Lo apprezzo molto

Quindi, secondo i seguenti risultati del test, sono stato estremamente fortunato?

la quantità massima di transazioni consecutive perdenti per l'intero periodo (di circa 23 gruppi di 50 transazioni - non sono riuscito a comprimere il tutto in un solo test) è stata di 41 (che può essere divisa tra 2 gruppi di 50 transazioni)

Avrei dovuto vedere questo tipo di drawdown più frequentemente?

Alla fine, se continuo a "giocare" a questo gioco, avrò il 9% delle volte quel tipo di perdita?

Ora un'altra cosa

secondo questo rapporto

la probabilità media per me di avere un trade profittevole è 8,85% e un trade perdente è 91,15%

quindi secondo questo la possibilità di avere 50 perdite consecutive è: 0.9115^50 = 0.97% ...

che è abbastanza lontano dal 9% ... come può essere?

Se dovessi perdere per il 95,3% delle volte sarebbe corretto, e con tale percentuale la mia aspettativa sarebbe negativa O_O

Ex= 0.953*(-23)+0.047*(247) = -10.31 pips di profitto per trade


È importante capire che le statistiche calcolate e riportate nel rapporto automatizzato sono "specifiche della serie temporale". Ciò significa che sono letteralmente rilevanti nella previsione delle caratteristiche future del trading solo se il mercato stesso ha le stesse caratteristiche della serie temporale....che, per ovvie ragioni, non accade mai.

Puoi davvero perderti irrimediabilmente nel tentativo di divinare il futuro dalle statistiche di un rapporto di backtesting. Nel peggiore dei casi i risultati del backtesting sono completamente e totalmente inutili, nel migliore dei casi se avete preparato correttamente il modo di fare backtesting allora potete generare alcune pepite di dati che vi permettono di parlare di cose che dovrebbero essere non correlate con la serie temporale usata nel backtesting.

Ricordatevi solo che NON avete a che fare con un processo stazionario. Praticamente ogni statistica che potreste trovarvi a calcolare sulla base del backtesting è irrilevante per fornire indicazioni sui risultati futuri perché la distribuzione madre non è mai completamente campionata (non può esserlo perché non esiste ancora, il tempo crea più spazio non campionato) e le statistiche della distribuzione cambiano come la media e la deviazione standard.

È con questo in mente che si dovrebbe considerare i calcoli di Risk of Loss come un risultato "best case", poiché è più probabile che la deviazione standard sia più ampia nella realtà rispetto a quella generata dal campionamento limitato incontrato durante il backtesting.
 

ciao di nuovo :)

Ho cambiato il periodo di campionamento da gruppi di 50 trade a calcolo mensile e sono arrivato ai seguenti risultati:

supponendo che questi valori si distribuiscano normalmente (il che potrebbe non essere vero in questo caso)

1. C'è un modo per fattorizzare l'asimmetria e la curtosi nel calcolo del ROR?

2. Si tratta davvero di una distribuzione normale? Se no, come può essere trattata?

 
sergeyrar:

ciao di nuovo :)

Ho cambiato il periodo di campionamento da gruppi di 50 trade a calcolo mensile e sono arrivato ai seguenti risultati:

supponendo che questi valori si distribuiscano normalmente (il che potrebbe non essere vero in questo caso)

1. C'è un modo per fattorizzare l'asimmetria e la curtosi nel calcolo del ROR?

2. Si tratta davvero di una distribuzione normale? Se no, come può essere trattata?


Una frase che forse non conoscete è "therein lies the rub" che suppongo si traduca vagamente in qualcosa come "il diavolo sta nei dettagli" nel senso che una volta che vi rendete conto dei dettagli che contano, vi rendete conto che è un diavolo da affrontare.

Sì, state assumendo una distribuzione normale quando in realtà i vostri risultati non sono rappresentativi di una distribuzione normale.

A proposito, totalmente un argomento secondario, ma potreste scoprire che i vostri istogrammi vi servono meglio se ottimizzate la dimensione dei bin.

Ottimizzazione della larghezza dei bin degli istogrammi

Ho implementato questo codice in MQL, potrei anche averlo caricato qui se controllate i miei post. Ma dirò che se decidete di perseguirlo, questa è una di quelle cose in cui dovete davvero immergervi e insegnare a voi stessi, altrimenti non capirete davvero perché un istogramma con larghezza bin ottimizzata sia utile o speciale.

Tornando al tuo argomento, il punto chiave che hai scoperto è che quando esegui analisi statistiche sui tuoi risultati di backtesting spesso usi statistiche che sono rigorosamente vere solo se i tuoi dati sono campioni presi da una distribuzione gaussiana. Dove le persone tendono a fallire nei loro sforzi in quel frangente è testare questa assunzione, verificando che abbiano qualche legittimità nell'applicare statistiche di distribuzione normalizzata alle loro analisi.

A questo punto si arriva a un bivio... si può scegliere di perseguire risultati "statisticamente caratterizzabili", scartando magari i risultati apparentemente ottimali per motivi che non sono conformi alle statistiche di distribuzione normalizzata, oppure si cercano metodi più generalizzati di analisi dei risultati di backtesting tali che i metodi siano robusti e forniscano metriche significative e utili per prevedere i risultati futuri.

Ecco un esempio di un'analisi che ho eseguito da cui ho avuto la mia epifania riguardo alla stupidità di usare statistiche di distribuzione normalizzate nelle mie caratterizzazioni di backtest:



I punti rossi sono punti di dati, la linea verde solida è la funzione gaussiana più adatta ai punti di dati rossi, la linea blu chiaro è la funzione di distribuzione gaussiana generalizzata più adatta.

Sei matematicamente incline e non sei intimidito dal perseguire il campo delle analisi statistiche oltre quello della tradizionale distribuzione basata sulla gaussiana? Oppure è più probabile che non sia la vostra passione e il vostro stile e come tale preferireste scartare e ignorare questi risultati apparentemente strani e perseguire la caratterizzazione di quelli che sono conformi alle metriche più facilmente interpretabili?

A questo punto non c'è consenso su quale strada dovreste scegliere, è più una questione di personalità e passione. Fate quello che vi sembra naturale e facile.

 
zzuegg:

Il profitto non è un buon parametro di ottimizzazione, il fattore di profitto e il drawdown dicono di più su una strategia...

Mi associo a questo e forse rifocalizzare il pensiero nel thread...
Una strategia sana non dovrebbe aver bisogno di molta ottimizzazione...?

Se stai facendo scalping, ci dovrebbe essere un livello osservato di TP & SL che andrai a prendere
Se si fa grid-trading, i TP & SL sono evidenti, come nel range-trading
Lo swing trading avrà bisogno di stop basati su ATR o Fibo
Gliscambi di posizione saranno troppo pochi per produrre statistiche significative sull'ottimizzazione, quindi...
Cos'è che stiamo cercando?
Se una strategia non è (effettivamente) completa, l'ottimizzazione può davvero fare la differenza?

FWIW

-BB-

 
@BarrowBoy "Una buona strategia non dovrebbe aver bisogno di molta ottimizzazione...?" L'ottimizzazione non può fare una buona strategia da una cattiva, ma non pensi piuttosto che l'ottimizzazione sia fatta per trovare le impostazioni che stanno rivelando le opportunità del momento?
Motivazione: