Riqualificazione - pagina 2

 
Dmitry Fedoseev:
E io pensavo che "bla bla" fosse giudicato non dalle persone, ma da quello che scrivono.

Di solito non rispondo ai post irritati, ma ti risponderò personalmente.

Quindi, quello che intendo per "bla bla".

CASO 1.

Supponiamo che tu abbia scritto un robot, trovato i suoi parametri con un TESTER e poi, senza cambiarli, provato su nuove aree di quotazione e preferibilmente su altri simboli e TF. Abbiamo ottenuto un risultato positivo.

La domanda è: fino a che punto possiamo fidarci del risultato? Scenderà o no?

Come risposta alla domanda, guardate la scheda "Segnali" qui sul sito e vedete che i segnali con la redditività superiore al deposito bancario e con la durata superiore a un anno sono abbastanza rari: non ce ne sono nemmeno un centinaio su diverse migliaia. Così, personalmente concludo che lo sviluppo di un TS stabile è un'arte, e il tester è uno degli strumenti per sviluppare un tale TS stabile. Ma la conclusione più importante: il tester non garantisce una perdita di profitto.

Questo è quello che ho considerato il caso quando il tester ha confermato il TS.

CASO 2

Questo è un caso più interessante nel senso di "bla-bla" - questo è quando il tester dà un risultato negativo. Cosa fare? Dopo tutto, il tester non dà nessuna idea in che direzione scavare e soprattutto non risponde alla domanda: perché un risultato negativo. Il tester afferma il fatto - è cattivo. Poi viene l'uso di un metodo universale chiamato metodo TYK o bla bla, che di solito significa un cambio intuitivo di indicatori nel tentativo di ottenere l'insieme di indicatori che ci porterà al caso 1 descritto sopra.

Ci sono idee, strumenti, che possono rendere il processo del caso 2 più significativo e assicurarsi che i risultati ottenuti nel tester saranno ottenuti in futuro sull'account reale?

Sì, ci sono, ho dato un link a un thread parallelo. Si tratta di tali strumenti per analizzare l'insieme iniziale di dati di input (predittori), che non porteranno al retraining (over-fitting) del TS. Questi non sono "bla-bla" - si tratta di strumenti specifici con giustificazione matematica della loro efficacia, senza ricerca intuitiva del graal, e dopo aver trovato tale graal, prosciugando il depo.

 
Stanislav Korotky:
Se viene utilizzato un test in avanti, il "sovrallenamento" sarà visibile dalla degradazione dei risultati al di fuori del periodo di ottimizzazione. Sfortunatamente, MT non fornisce alcun metodo incorporato per confrontare i risultati dell'ottimizzazione e dei test in avanti, cioè si suggerisce di farlo manualmente (a occhio), con programmi esterni o script a propria discrezione.
Il termine "riqualificazione" è di per sé privo di senso, serve a giustificare la non funzionalità dell'EA stesso e perde completamente il suo significato nel caso di un avanzamento di lupara. Se una variabile è sovra o sotto-appresa, infatti, non è ovvio dalla degradazione. Può essere visto solo quando si confrontano i risultati in avanti sotto diverse condizioni di ottimizzazione e di test. Sia la profondità della storia che il passo avanti sono selezionati in ogni caso personalmente e poi è già visibile cosa è sovra e cosa è sotto addestrato.
 
СанСаныч Фоменко:

...

CASO 2.

Il tester afferma un fatto - male. Poi arriva l'applicazione di un metodo universale chiamato METODO TYKA o bla bla, che di solito comporta intuitivamente il cambiamento di un insieme di indicatori nel tentativo di ottenere un insieme di indicatori che ci porterà al caso 1, descritto sopra.

Ci sono idee, strumenti, che possono rendere il processo del caso 2 più significativo e assicurarsi che i risultati ottenuti nel tester saranno ottenuti in futuro sull'account reale?

Sì, ci sono, ho dato un link a un thread parallelo. Si tratta di tali strumenti per analizzare l'insieme iniziale di dati di input (predittori), che non porteranno al retraining (over-fitting) del TS. Questi non sono "bla-bla" - si tratta di strumenti specifici con giustificazione matematica della loro efficacia, senza ricerca intuitiva del graal, e dopo aver trovato tale graal, prosciugando il depo.

E se questo metodo del poke fosse automatizzato! Pensieri interessanti in questa direzione. Gli indicatori stanno cambiando, così come le loro interazioni, le interazioni sono rappresentate come funzioni separate, quindi il numero di parametri può cambiare, solo l'ottimizzazione più semplice secondo loro si verifica. Ecco perché sono interessato alla domanda posta in questo thread, un approccio più universale, che non dipenderebbe dai parametri della strategia. Il ramo che lei propone ha obiettivi completamente diversi. Ma se mostrate l'applicabilità di questi metodi a questo problema, siete i benvenuti.

 
Youri Tarshecki:
Il termine stesso "riqualificazione" è sciocco, concepito per giustificare l'inoperosità dell'EA stesso e perde completamente il suo significato con un volking in avanti. Se una variabile è sovrallenata o sottoallenata, infatti, non si può dire dal degrado. Può essere visto solo quando si confrontano i risultati in avanti sotto diverse condizioni di ottimizzazione e di test. Sia la profondità della storia che il passo avanti sono selezionati in ogni caso personalmente e poi è già visibile cosa è sovra e cosa è sotto addestrato.

In questa situazione il termine "sovrallenamento" è applicabile, l'allenamento si riferisce non solo alla regolazione dei parametri ma anche alla costruzione della strategia.

Vorrei stimare la probabilità di sovrallenamento, in modo che il sistema di ricerca possa almeno "bypassare" i luoghi dubbi, se solo si confronta con un plot di storia in avanti, può succedere che il sistema percepisca due plot di storia (allenamento, test) come un plot di allenamento. Ascoltare le idee)).

 
Aliaksandr Hryshyn:

In questa situazione il termine "sovrallenamento" è applicabile, l'allenamento si riferisce non solo alla regolazione dei parametri ma anche alla costruzione della strategia.

Vorrei stimare la probabilità di sovrallenamento, in modo che il sistema di ricerca possa almeno "bypassare" i luoghi dubbi, se solo si confronta con un plot di storia in avanti, può succedere che il sistema percepisca due plot di storia (allenamento, test) come un plot di allenamento. Ascoltare le idee)).

Quando si costruisce una strategia, il termine "sovrallenamento" è tanto più inapplicabile, poiché stiamo solo confrontando il risultato del test nelle stesse condizioni di allenamento per selezionare la variante di codice. E come siano scelte in modo ottimale queste condizioni non è così importante, l'importante è che siano le stesse per tutte le varianti del codice. Altrimenti la scelta non ha senso.
 

Il termine "overtraining" o "overoptimization" è stato inventato dai tweakers perché, in effetti, più si ottimizza un EA su una particolare parte della storia e più parametri di ottimizzazione ci sono, migliori sono i risultati in allenamento.

Per qualche ragione, c'è l'opinione che ci sia una correlazione inversa con i risultati dei test, cioè meno ce n'è, meglio è, ma la mia esperienza dimostra che non è vero. Il risultato del test non dipende dal numero di passaggi di optmizzazione, ma dalla qualità dell'Expert Advisor stesso e dalla scelta ottimale delle sessioni di allenamento e di test. I risultati degli schemi in cui la storia è sottoposta a un'ottimizzazione minima non sono i migliori che ho visto.

Per esempio, sotto lo schema wolfkin forward in un allenamento di 4 mesi - test di 1 mese, ogni intervallo della storia è ottimizzato 4 volte, ma sotto lo schema allenamento di 2 mesi - test di 2 mesi solo una volta. È troppo o troppo poco? Chi lo sa! Basta guardare i risultati dei test. Se la somma degli attaccanti è migliore, allora questa è l'opzione migliore.

 
Youri Tarshecki:
Quando si costruisce una strategia, il termine "sovrallenamento" è tanto più inapplicabile, poiché stiamo solo confrontando il risultato del test nelle stesse condizioni di allenamento per selezionare una variante del codice. E come siano scelte in modo ottimale queste condizioni non è così importante, l'importante è che siano le stesse per tutte le varianti del codice. Altrimenti la scelta non ha senso.

Questo termine è usato abbastanza spesso:"Overtraining,overfitting è un fenomeno indesiderabile che si verifica in compiti diapprendimento basati su precedenti, quando la probabilità di errore dell'algoritmo addestrato sugli oggetti delcampione di testè significativamente più alta dell'errore medio sulcampione di allenamento."

Secondo la definizione, l'uniformità delle condizioni di allenamento non impedisce l'applicabilità del termine al nostro problema.

 
Nikkk:

La riqualificazione è come la parola controrivoluzione. Allora perché insegnare se si deve riqualificare. E se ha senso riqualificare, allora si conoscono i limiti fluttuanti per la riqualificazione, altrimenti alla fine è la stessa roulette. E dato che ci sono punti di decisione su quando/quanto spesso/quali parametri... devono essere riqualificati, perché non mettere questa comprensione nella logica dell'allenamento/algoritmo stesso fin dall'inizio.

Passare dall'analisi del prezzo all'analisi del feedback tra formazione e realtà (prezzo). La stessa cosa da un'angolazione diversa.

Basta paragonare l'apprendimento alla memoria. Non è che ti chiedi perché hai bisogno di ricordare se devi comunque dimenticare. Il problema è che gli EA generalmente non hanno una memoria a lungo termine e una memoria di lavoro separate. Inoltre, la valutazione delle loro prestazioni è molto primitiva. Pertanto, dovremmo idealmente insegnare ogni permenum separatamente (cosa che cerco di fare, tra l'altro), e testarlo non su segmenti di allenamento, ma su segmenti di test.
 
Aliaksandr Hryshyn:

Questo termine è usato abbastanza spesso:"Overtraining,overfitting è un fenomeno indesiderabile che si verifica in compiti diapprendimento basati su precedenti quando la probabilità di errore dell'algoritmo addestrato sugli oggetti delcampione di testè significativamente più alta dell'errore medio sulcampione di allenamento."

Secondo la definizione, l'uniformità delle condizioni di allenamento non impedisce l'applicabilità del termine al nostro problema.

Quindi, quando si costruisce una strategia, il compito è diverso. non i precedenti, non l'ottimizzazione, ma scrivere codice.

Inoltre, non sono d'accordo con questa definizione. Secondo esso, se non stiamo ottimizzando affatto e la probabilità di fallimento sul test è maggiore che sull'allenamento (che è una cosa comune) - sarà anche considerata una sovraottimizzazione. E cosa significa sostanzialmente? Due volte? Di dieci volte?

 
Youri Tarshecki:
Basta paragonare l'apprendimento alla memoria. Non è che ti chiedi perché hai bisogno di ricordare se devi comunque dimenticare. Il problema è che gli EA generalmente non hanno memoria a lungo termine e a breve termine separatamente. Inoltre, la valutazione delle loro prestazioni è molto primitiva. Pertanto, dovremmo idealmente insegnare ogni singolo permenente separatamente (cosa che sto cercando di fare, tra l'altro), e controllarlo non su segmenti di allenamento, ma su segmenti di test.

Non dimenticate, è solo che la memoria della sezione in cui si è svolto l'allenamento si trasforma nella memoria dei risultati dell'allenamento di quella sezione. È lo stesso che se filtrassimo un'area e poi usassimo le informazioni filtrate per l'analisi, poi le filtrassimo e ne usassimo un'altra e così via, mentre c'è una connessione tra la natura del filtraggio/aree in cui questi filtri sono stati eseguiti.

Non si dimentica nulla, la stessa analisi della storia da un'angolazione diversa. Comunque lo si voglia chiamare, sovra-apprendimento/sovra-ottimizzazione/adattamento/adattamento/super adattamento.

Motivazione: