L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3321

 
Maxim Dmitrievsky #:

che si sta conducendo a questo come minimo/massimo del criterio? Questo non ha nulla a che fare con il minimo/massimo globale del modello stesso.

Mi mostri il grafico.

Per favore.

Mostrate sul grafico del criterio dove dovete interrompere l'addestramento.

 

È una cosa molto lontana,

Cercherò di fare una canzone.

È difficile da dire, l'ho già dimenticata ed è lunga, la musica, se la impariamo, è una lunga melodia:

 
Andrey Dik #:

Mostrami il grafico.

Per favore.

Mostrate su questo grafico i criteri in cui dovete interrompere l'allenamento.

Al minimo del criterio sull'intero campione, qual è il prossimo passo?

 
quando ci si innamora di una nuova ragazza, si inizia ad ascoltare musica femminile.
 

Capite cosa intendo?

Un vero specialista dell'IA ha bisogno di sigarette rosse e di acqua di colonia verde.

 
Maxim Dmitrievsky #:

al minimo del criterio sul campione lordo, qual è il prossimo passo?

Bingo!

Ora avete finalmente capito che qualsiasi apprendimento non è altro che un'ottimizzazione con ricerca dell'estremo globale. O forse non l'avete ancora capito, ma lo capirete.

Non può essere altrimenti, è sempre necessario un criterio inequivocabile per fermare l'apprendimento e questo criterio è sempre progettato in modo che sia un estremo globale. Di solito si progetta un criterio integrale (non sempre). Lei ha nominato i criteri integrali.

 
Andrey Dik #:

Bingo!

Ora avete finalmente capito che qualsiasi apprendimento non è altro che un'ottimizzazione con ricerca di un estremo globale. O forse non l'avete ancora capito, ma lo capirete.

Non può essere altrimenti, è sempre necessario un criterio inequivocabile per fermare l'apprendimento e questo criterio è sempre progettato in modo che sia un estremo globale. Di solito si progetta un criterio integrale (non sempre). Avete nominato i criteri integrali.

Il post originale riguardava la complessità del modello, non gli estremi. Stai solo tirando la tua linea, dimenticando quello che ho scritto.

In altre parole, stai ancora una volta praticando il pee-hacking, ovvero l'allungamento dei dati per adattarli alle tue parole.

 
Andrey Dik #:

Mostrami il grafico.

Per favore.

Mostrate su questo grafico i criteri in cui dovete interrompere l'allenamento.


Ecco un tipico grafico dell'errore di adattamento del modello.

Si avvicina asintoticamente a un certo valore di offset dall'asse.

L'entità del bias è una proprietà della coppia target-predicatore. Ottimizzando i parametri di un particolare modello si possono ottenere alcune briciole, ma è impossibile saltare la proprietà "target-predittori" con qualsiasi ottimizzazione.

Se il bias è il 45% dell'errore, è impossibile ottenere il 10% in meno cambiando i parametri del modello. E nessuna ottimizzazione sarà d'aiuto.

E se si riesce a trovare una coppia "target-predictors" con un errore del 20%, l'errore sarà circa del 20% qualunque cosa si faccia.

Inoltre. Se nella traccia e poi nella validazione gli errori divergono di oltre il 5%, significa che è necessario lavorare sulla coppia "target-predittori" in modo significativo. Se non è possibile convergere, la coppia "target-predittori" dovrà essere scartata.

 
Maxim Dmitrievsky #:

Il post originale riguardava la complessità del modello, non gli estremi. Lei sta solo tirando la sua linea, dimenticando quello che ho scritto.

In altre parole, stai di nuovo facendo pi-hacking, ovvero stiracchiando i dati per adattarli alle tue parole.

Cosa intende con "originariamente"? Abbiamo discusso della complessità del modello separatamente, in quell'occasione abbiamo detto che l'aumento della complessità del modello è efficace solo fino a un certo punto, poi c'è un calo di efficacia, e questo è vero, sì, non l'ho contestato e lo confermo. Poi ho solo suggerito che forse l'efficienza può aumentare drasticamente se si aumenta il modello in modo molto significativo, perché nessuno qui l'ha fatto prima (e capisco perché).

Ho sempre detto, da molto tempo, che qualsiasi apprendimento è un'ottimizzazione con ricerca dell'estremo globale, ma tu l'hai negato (e anche altri), dicendo che non sei un "ottimizzatore". Ora vi ho dimostrato chiaramente che l'apprendimento può essere interrotto solo quando viene trovato un estremo globale, altrimenti non c'è modo di farlo (non sapete quando interrompere l'apprendimento, avete bisogno di un criterio per farlo). Ecco perché il metacriterio di arresto è l'essenza dell'ottimizzazione quando si apprende fino all'estremo globale.

La consapevolezza di ciò rende possibile guardare all'apprendimento da nuove angolazioni.

 
C'è un errore nel mio disegno, la linea rossa della val dovrebbe essere sopra la trayne.
Motivazione: