L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3357

 
Per spiegare l'immagine in un linguaggio semplice: per il classificatore, il primo e il secondo caso dell'istogramma sono identici, perché vengono utilizzate le etichette di classe. Sia lì che lì c'è un'unità per la classe più probabile. Dopo l'addestramento, il classificatore non fornirà la probabilità della classe, ma un valore pari a uno meno l'errore di previsione passato attraverso la sigmoide o il softmax.

Questo è completamente incoerente con quanto ci si aspetterebbe quando si imposta una soglia di predizione.
 

Un approccio probabilistico è buono e giusto. Avremo sempre un forte rumore e il punto è cercare le differenze rispetto a ciò che sarebbe stato sotto SB. La varianza del rumore da sola non sarà sufficiente a questo scopo.

IMHO, il compito di classificazione non è adatto perché scarta in modo significativo le informazioni. Abbiamo bisogno di qualcosa come osservare la distribuzione del valore del movimento del prezzo nella direzione desiderata e modellare come questa distribuzione dipenda dai segnali, per poi costruire un TS in base al tipo di distribuzione (se presenta differenze rispetto a quello che sarebbe stato in SB).

 
Maxim Dmitrievsky #:
Ancora nuove definizioni.
Un'ultima volta: il classificatore è calibrato perché produce probabilità errate. Esse sono prive di significato nella loro forma originale. Superatelo.

Non riuscivo a digerirlo.

Non esiste una probabilità astratta, leggi riferimento, perfetta, che non sia legata a un processo casuale.

Non esiste.

La probabilità che una moneta venga lanciata, ecc.

Pertanto, qualsiasi classificatore fornisce una probabilità che caratterizza quel particolare classificatore, che fornisce la caratteristica di cui abbiamo bisogno: l'errore di previsione. Un altro classificatore fornirà altre probabilità con il corrispondente errore di previsione della classe.

A seconda dei predittori e delle etichette associate, nonché del bilanciamento delle classi, si pone il problema di stabilire una soglia per dividere le probabilità in classi. Gli strumenti per questa operazione, chiamata "calibrazione", sono forniti in precedenza. È possibile farlo anche in modo kolkhoz.

In ogni caso, è possibile ridurre in modo significativo l'errore di previsione per le probabilità fornite da un particolare classificatore, perché non esistono altre probabilità in natura quando si lavora con un particolare classificatore. Se non vi piacciono le probabilità, lavorate con un classificatore o fate una calibrazione. Non c'è spazio per probabilità "perfette" in questo particolare processo, che non esistono in teoria.

Una cosa chiara è che dividere le classi in base a una soglia di 0,5 è molto discutibile e raramente funziona.

 
СанСаныч Фоменко #:

Non ho potuto accettarlo.

Le probabilità fornite dal classificatore sono prive di significato. Non sono probabilità. Se ne avete bisogno, non potete usarle. Non correte davanti alla locomotiva e non riempite questo fatto di nuovi significati. Almeno affrontatelo.
 
СанСаныч Фоменко #:

Non potevo sopportarlo.

Non esiste una probabilità astratta, leggi riferimento, ideale, che non sia legata a un processo casuale.

Non esiste.

La probabilità che venga lanciata una moneta, ecc.

Quindi qualsiasi classificatore fornisce una probabilità che caratterizza quel particolare classificatore, che fornisce la caratteristica di cui abbiamo bisogno: l'errore di previsione. Un altro classificatore darà altre probabilità con l'errore di previsione della classe corrispondente.

A seconda dei predittori e delle etichette ad essi associate, nonché del bilanciamento delle classi, si pone il problema di stabilire una soglia per dividere le probabilità in classi. Gli strumenti per questa operazione, chiamata "calibrazione", sono forniti in precedenza. Può essere effettuata anche in modo kolkhoz.

In ogni caso, è possibile ridurre in modo significativo l'errore di previsione per le probabilità fornite da un particolare classificatore, perché non esistono altre probabilità in natura quando si lavora con un particolare classificatore. Se non vi piacciono le probabilità, lavorate con un classificatore o fate la calibrazione. In questo particolare processo non c'è posto per le probabilità "perfette", che non esistono in teoria.

Una cosa chiara è che dividere le classi in base a una soglia di 0,5 è molto discutibile e raramente funziona.

Si tratta di errori matematici comuni quando si utilizza un modello di probabilità sbagliato. Ad esempio, se il rumore nella regressione è in realtà distribuito a Laplace e noi lo calcoliamo come se fosse gaussiano, ovviamente ci saranno degli errori.

PS. In realtà, il punto è tornare alle origini probabilistiche del MO, che, tra l'altro, ai suoi albori era chiamato (almeno in URSS) apprendimento statistico.)

 

Ho già descritto l'esempio precedente. C'è un classificatore che supera l'OOS, ma i rendimenti sono distribuiti 60/40. Non piace, si alza la soglia di decisione, ma la situazione non cambia e a volte peggiora. Non vi piace, alzate la soglia di decisione, ma la situazione non cambia, anzi a volte peggiora. Ci si gratta la testa per capire il perché di questa situazione.

Viene data una spiegazione del perché: perché nel caso di una vera stima delle probabilità la situazione dovrebbe cambiare.

Viene fornita una soluzione.


 
Maxim Dmitrievsky #:

Ho già descritto l'esempio precedente. C'è un classificatore che supera l'OOS, ma i rendimenti sono distribuiti 60/40. Non piace, si alza la soglia di decisione, ma la situazione non cambia e a volte peggiora. Non vi piace, alzate la soglia di decisione, ma la situazione non cambia, anzi a volte peggiora. Ci si gratta la testa per capire il perché di questa situazione.

La spiegazione è data: perché nel caso di una vera stima delle probabilità la situazione dovrebbe cambiare.

Viene fornita una soluzione


Non era ovvio già da tempo?
 
Post-ottimizzazione - anche questo nessuno può dirlo, ma si dice collibrazione! Oh, sì.
 
Maxim Dmitrievsky #:

Ho già descritto l'esempio precedente. C'è un classificatore che supera l'OOS, ma i rendimenti sono distribuiti 60/40. Non piace, si alza la soglia di decisione, ma la situazione non cambia e a volte peggiora. Non vi piace, alzate la soglia di decisione, ma la situazione non cambia, anzi a volte peggiora. Ci si gratta la testa per capire il perché di questa situazione.

La spiegazione è data: perché nel caso di una vera stima delle probabilità la situazione dovrebbe cambiare.

Viene fornita una soluzione.


Tuttavia, vorrei sottolineare che la calibrazione non sarà una panacea e non è gratuita: sono necessarie buone proprietà del classificatore esistente. Per non dilungarmi in spiegazioni, citerò dal vostro secondo riferimento a SHAD. "In generale, si può dimostrare che questo metodo funziona bene se, per ciascuna delle classi vere, le probabilità previste sono distribuite normalmente con uguale varianza." Questo si riferisce alla calibrazione Platt, ma sicuramente devono essere soddisfatte alcune condizioni anche per le altre.

In realtà, tutto è come in matstat: le proprietà probabilistiche del modello utilizzato devono corrispondere ai dati in esame.

 
Aleksey Nikolayev #:

Tuttavia, vorrei sottolineare che la calibrazione non sarà una panacea e non è gratuita: è necessario disporre di buone proprietà del classificatore esistente. Per non dilungarmi in spiegazioni, citerò dal vostro secondo riferimento a SHAD. "In generale, si può dimostrare che questo metodo funziona bene se, per ciascuna delle classi vere, le probabilità previste sono distribuite normalmente con uguale varianza." Questo si riferisce alla calibrazione Platt, ma sicuramente devono essere soddisfatte alcune condizioni anche per le altre.

In realtà, tutto è come in matstat: le proprietà probabilistiche del modello utilizzato devono corrispondere ai dati in esame.

Naturalmente, questo è solo un modo per rendere probabilistici gli output, perché usare le probabilità del modello grezzo è inutile.