L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 963

 
Ivan Negreshniy:

E lei, per se stesso, cosa giustifica la liceità delle deviazioni verso il basso, se non il puro caso?

Non ho alcuna giustificazione per aspettarmi che OOS sia meglio di Train.
Come potete pretendere da dati casuali OOS risultati migliori di quelli su cui avete imparato? Non può essere, se non per caso.
Recentemente è stato scritto in un altro thread che lo studente non può sapere più dell'insegnante.
Esempio.
Una parte dei dati (per esempio l'80%) sul PE sarà familiare al modello e lì mostrerà lo stesso errore che sul Treno (sia l'errore=30%), l'altro 20% dei dati sul PE sarà nuovo e non appreso, e darà un errore del 50%. Combinati, questo 80% di dati familiari e il 20% di dati nuovi dovrebbero portare l'errore di OOS del sito a circa il 35%.
Quindi mi aspetterei un peggioramento dei risultati dell'OOS più che un miglioramento.
C'è anche una probabilità di miglioramento se molti buoni esempi entrano nell'OOS, in proporzione maggiore che nella trama del treno. Non riesco a pensare a nessun altro modo per ridurre l'errore nel feedback.

Ivan Negreshniy:

E poi qual è il vostro compito principale, se non quello di combattere con questa casualità, perché essa livella il significato della convalida e dell'OOS e dell'IO in generale?)

Il compito è quello di rendere il delta di errore non troppo grande.

 
Una domanda per Alesha.
Come si fa a distinguere i rumori dai 600 predittori?
 
elibrario:

Non ho alcuna giustificazione per aspettarmi che OOS sia migliore di Train.
Come potete aspettarvi che i dati OOS casuali producano risultati migliori di quelli su cui si insegna? Non può essere, se non per caso.
Recentemente è stato scritto in un altro thread che lo studente non può sapere più dell'insegnante.
Esempio.
Unaparte dei dati (per esempio l'80%) sull'OOS sarà familiare al modello e lì mostrerà lo stesso errore che sul Treno (lasciamo che l'errore sia del 30%), l'altro 20% dei dati dell'OOS sarà nuovo e non appreso, e darà un errore del 50%. Combinati, questo 80% di dati familiari e il 20% di dati nuovi dovrebbero portare l'errore di OOS del sito a circa il 35%.
Quindi mi aspetterei un peggioramento dei risultati dell'OOS più che un miglioramento.
C'è anche una probabilità di miglioramento se molti buoni esempi entrano nell'OOS, in proporzione maggiore che nella trama del treno. Non riesco a pensare ad altri modi per ridurre l'errore nel feedback.

Il compito è quello di rendere il delta dell'errore non troppo grande.

Per non confondersi, è necessario definire la terminologia - OOS o OOS (fuori campione) sono dati, per definizione non familiari al modello, altra cosa è IS (nel campione)

 
Ivan Negreshniy:

È necessario definire la terminologia - OOS o OOS (fuori dal campione) sono dati, per definizione non modelli familiari, IS (nel campione) è un'altra questione

Se si trovano delle regolarità nei dati, allora gli esempi che vi corrispondono possono essere considerati familiari.
 
elibrario:

C'è anche una possibilità di miglioramento se molti buoni esempi entrano nell'OOS, in proporzione maggiore che nella sezione Train. Non vedo altre opzioni per ridurre l'errore nel ciclo di feedback.

Ho letto in uno dei libri del MoD che quando si addestra, il rapporto tra successo e insuccesso dovrebbe corrispondere alla realtà. Dovremmo allenare allo stesso modo sia i risultati positivi che quelli negativi.

 
Yuriy Asaulenko:

Ho letto in uno dei libri del MoD che quando si addestra, il rapporto successo-fallimento dovrebbe essere coerente con la realtà. Dovremmo insegnare allo stesso modo sia i risultati positivi che quelli negativi.

Perché allora cercare di filtrare gli esempi falliti e rumorosi; o isolarli, ripartirli in "non so" e addestrare di nuovo la rete?
 
elibrario:
Allora perché cercare di filtrare gli esempi cattivi e rumorosi; o isolarli, ripartirli in "non so" e addestrare di nuovo la rete?

Non ne sono a conoscenza. Questo è per quelli che lo fanno. Insegno come ho scritto sopra.

 
Ildottor Trader:

Sì, è un peccato che il tuo demo non ci sia più. E tutto perché stai guardando troppo l'OOS, anche se hai citato un articolo dove si dice che il modello OOS non può essere selezionato, e sul forum qui molte volte ha scritto la stessa cosa.

Ho già scritto che c'è una correlazione diretta tra TOF e stabilità sul TOF.

Non ha ottenuto lo stesso errore su OOB come su trayne finora, sempre almeno 2 volte più grande. Ci riproverò più tardi, ora sono stufo di questa merda :)

Forse dovrò passare a P e ottenere un modello migliore, dato che l'alglib stesso non mi lascia vedere altro
 
Maxim Dmitrievsky:

dato che l'alglib stesso non ti permette di vedere altro

Te l'ho detto molto tempo fa, è un vicolo cieco. Non dovreste modellare in MT - R, MathLab, come A_K2, in VisSim, ecc.

Quando il modello funziona, lo si può trasferire a MT, e non lo si può trasferire).

 
Yuriy Asaulenko:

Ti è stato detto per molto tempo - è un vicolo cieco. Non dovreste modellare in MT - R, MathLab, come A_K2, in VisCim, ecc.

Quando il modello funziona, allora puoi trasferirlo su MT, ma non sei obbligato a farlo).

Cos'altro può dire di interessante?