L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2589

 
mytarmailS # :
https://stats.stackexchange.com/questions/31513/new-revolutionary-way-of-data-mining

In questa domanda si sollevano pensieri molto interessanti...

A proposito, gli intervistati continuano a non capire l'essenza della domanda

Quando si sceglie un modello, suggerisco di ottimizzare non per il profitto sull'OOS, ma per il rapporto tra questo profitto e il profitto sul vassoio. O buttare via i modelli con un piccolo rapporto di questo tipo e prendere il massimo profitto per OOS dal resto. Questo se si prendono le citazioni alla lettera, senza speculazioni.

 
Aleksey Nikolayev #:

Quando si sceglie un modello, si suggerisce di ottimizzare non per il profitto sugli OOS, ma per il rapporto tra questo profitto e quello sul vassoio. O buttare via i modelli con un piccolo rapporto di questo tipo e prendere il massimo profitto su OOS da quelli rimanenti. Questo se si prendono le citazioni alla lettera, senza speculazioni.

Aleksey, posso avere un pezzo della citazione dove parla di profitto, massimo profitto, buttando fuori i modelli....

Finora, sembra che tu lo stia facendo sembrare come -
letterale, nessuna speculazione.
 
Aleksey Nikolayev #:

Quando si sceglie un modello, si suggerisce di ottimizzare non per il profitto sugli OOS, ma per il rapporto tra questo profitto e quello sul vassoio. Oppure buttare via i modelli con un piccolo rapporto di questo tipo e prendere il massimo di quelli rimanenti in termini di profitto su OOS. Questo se si prendono le citazioni alla lettera, senza speculazioni.

Nel mio esempio precedente con monete e 10000 persone. Che le teste siano 1 e le code 0. Se agiamo secondo l'algoritmo dato, non otterremo nulla neanche noi. Questo è abbastanza comprensibile nel contesto descritto. In altre parole, se ci imbattiamo in qualche bordo, allora non è così importante se prendiamo il rapporto di profitto su IS e OOS o qualcos'altro, e se non c'è un bordo, allora niente da tali metodi funzionerà.


Esattamente! Dobbiamo prima valutare la presenza di un bordo. E poi dovremmo pensare a come selezionare. Per esempio, nel modo seguente: guardiamo IS la quota di modelli per qualche metrica superiore a una certa soglia. Per esempio, il tasso di vittoria è superiore al 55% - 45% dei modelli. Classificateli per tasso di vittoria e prendete un po' di TOP. Controlliamo i risultati su questo top all'OOS? Sui modelli selezionati il tasso di vittoria superiore al 55% è dato dallo stesso 45% (rapporto dei modelli che danno tale impegno all'OOS su tutti i selezionati)? - Penso che questo gruppo di modelli possa essere tranquillamente buttato via. Se possiamo vedere che una tale selezione di modelli di punta funziona, significa che c'è un vantaggio e da quanto è forte questo effetto, possiamo valutare la qualità del modello. Si decide che è abbastanza forte. Tutta l'ulteriore selezione è una questione di tecnica - anche se prendendo un tasso di rotazione, PF, non devi preoccuparti di metriche e logiche complicate, e da tasso di rotazione e PF direttamente sul IS.

 
mytarmailS #:
Alexei, posso avere un pezzo della citazione sul profitto, la massimizzazione del profitto, buttando fuori i modelli....

Perché finora sembra una calunnia feroce e tu stai dichiarando come -
letteralmente, senza speculazioni

Ho una traduzione libera) Il punto è che inizialmente si addestrano molti modelli e alla fine si deve scegliere un modello funzionante (valutazione del modello). Il compagno sostiene che tutti di solito scelgono il modello che dà solo il miglior risultato sull'OOS e questo è l'approccio sbagliato. La sua seconda citazione dice come dovrebbe essere fatto.

Sapete che state facendo bene se la media dei modelli fuori campione è una percentuale significativa del punteggio nel campione. Questo si traduce nella massimizzazione del rapporto tra il profitto in OOS e il profitto in pista.

In generale, si arriva davvero da qualche parte se i risultati fuori dal campione sono più del 50% di quelli nel campione. Questo può essere tradotto come scartare i modelli in cui il rapporto tra il profitto su OOS e il profitto su traine è inferiore a 0,5
 

Beh, è una specie di questione di selezione del modello, sì, come nell'ottimizzazione. Potete trovare i vostri criteri soggettivi.

Non è male se c'è un mucchio di modelli con parametri leggermente diversi, cioè che permettono la variazione, ma tutti passano l'OOS. Ma non è una panacea, naturalmente.

 
Aleksey Nikolayev #:
Alexey, ci sono tecniche per ripristinare la superficie di ottimizzazione?
Si esegue l'algoritmo per i parametri di ricerca, trova qualcosa, e si utilizzano i dati dell'algoritmo per ripristinare la superficie di ottimizzazione...
Stiamo parlando di algoritmi euristici, non di una ricerca completa naturalmente...
Ho cercato su Google, ma nessun risultato.
 
mytarmailS #:
Alexey, ci sono tecniche per ripristinare la superficie di ottimizzazione?
Si esegue un algoritmo di ricerca dei parametri, esso trova qualcosa, e si usano i dati dell'algoritmo di ricerca per ricostruire la superficie di ottimizzazione...
Stiamo parlando di algoritmi euristici, non di una ricerca completa naturalmente...
L'ho cercato su Google, ma nessun risultato.

Completare le metriche di qualità del modello per l'input mancante, convenzionalmente, insiemi di valori di parametri? Il boosting è semplice da insegnare. A cosa servirebbe?

 
Replikant_mih #:

Completare le metriche di qualità del modello per gli insiemi di valori di iperparametri mancanti in entrata, condizionati? Beh, un semplice richiamo per l'allenamento. A cosa servirebbe?

Forse una semplice interpolazione può farlo, vedremo, volevo vedere se ce n'era una già pronta prima...
Perché? Sono abbastanza sicuro di poter prevedere se il modello funzionerà sui nuovi dati se vedo il modello OP


 
mytarmailS #:
Alexey, ci sono tecniche per ricostruire la superficie di ottimizzazione?
Si esegue un algoritmo di ricerca dei parametri, esso trova qualcosa, e si usano i dati dell'algoritmo di ricerca per ricostruire la superficie di ottimizzazione...
Stiamo parlando di algoritmi euristici, non di una ricerca completa naturalmente...
Ho cercato su Google, ma nessun risultato.

Nello spazio dei parametri del modello? È una dimensione enorme. È possibile solo per modelli molto semplici con un piccolo numero di predittori.

Non è molto chiaro come si possa costruire una superficie in uno spazio di enorme dimensionalità. Abbiamo semplicemente pochi punti in confronto a questa dimensionalità. A meno che da qualche visualizzazione di downscaling dimensionale come PCA ecc, ma il punto non è chiaro.

 
Maxim Dmitrievsky #:

Beh, è una specie di questione di selezione del modello, sì, come nell'ottimizzazione. Potete trovare i vostri criteri soggettivi.

Non è male se c'è un mucchio di modelli con parametri leggermente diversi, cioè che permettono la variazione, ma tutti passano l'OOS. Ma questo non è una panacea, naturalmente.

Prima hai avuto un'idea sulla combinazione di metriche standard e personalizzate, che ho capito così: i modelli sono addestrati usando quelle standard, mentre la selezione è fatta usando quelle personalizzate.