L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3377

 
fxsaber #:

Domanda teorica.

Esiste una TS che si adatta splendidamente. Allo stesso tempo, è noto che un certo insieme di parametri di input sfrutta con profitto il modello reale. Cioè, questo insieme non si adatta.

È possibile trovare questo insieme?

Se si elimina la clausola"TC che si adatta perfettamente", sipuò restringere notevolmente il campo. Inoltre, è necessario conoscere subito il modello che si sta cercando.

Non si può prendere un gruppo arbitrario di indicatori, rimuovere quelli ovviamente dipendenti e da lì ottenere un "TS adattato" e in tutto questo isolare lo sfruttamento della regolarità reale.

Una buona domanda è una mezza risposta - Nel mondo reale, dove si applicano alg.optimisations e ML, di solito si sa cosa si sta cercando esattamente (oscurità delle caratteristiche) ed è necessario evidenziare le caratteristiche, delineare i limiti. E qui nessuno sa cosa vuole trovare, ma sa come far funzionare l'ottimizzatore :-)

[Eliminato]  
fxsaber #:

La natura della curva dei profitti non cambia in base all'OOS: Size(OOS_Left) = Size(OOS_Right) = Size(Sample). Tutto sommato, un risultato che non si può ignorare.

Ebbene, attraverso una ri-ottimizzazione con un controllo su OOS si può trovare :) che è il caso più semplice di wolf forward OR cross-validation con una sola piega.
 
Maxim Dmitrievsky #:
Beh, attraverso la ri-ottimizzazione con il controllo OOS può essere trovato :)

Si prega di rivelare in poche frasi.

[Eliminato]  
fxsaber #:

Si prega di divulgare in poche frasi.

Tutti sembrano essere a conoscenza di wolf-forward. Quando si ottimizza per il campione, i risultati vengono presi da oos. Viene preso il miglior risultato complessivo con parametri mediati in modo che le curve non differiscano.
[Eliminato]  
Non dimostrerà che non si tratta di un adattamento. Fornirà i parametri più robusti. È impossibile dimostrare che non si tratta di un adattamento globale. E soprattutto non attraverso i minimi globali.
 
Maxim Dmitrievsky #:
Penso che tutti conoscano il wolf-forward. Quando si ottimizza il campione, i risultati vengono presi da oos. Viene preso il miglior risultato complessivo con parametri mediati in modo che le curve non differiscano.

Supponiamo che vengano eseguiti 100 passi - otteniamo 100 serie di input. Se formiamo il set medio secondo il principio "ogni set di input è uguale alla media dei 100 set di input corrispondenti", è improbabile che questo set superi bene l'intero intervallo iniziale.

[Eliminato]  
fxsaber #:

Supponiamo che siano stati eseguiti 100 passi e che siano stati ottenuti 100 insiemi di input. Se formiamo un insieme medio secondo il principio "ogni insieme di input è uguale alla media dei corrispondenti 100 insiemi di input", è improbabile che questo insieme passi bene attraverso l'intero intervallo iniziale.

In caso contrario, logicamente non esistono insiemi validi. In termini di fiducia nel futuro.

Questo è il grande e spietato matstat.
 
Maxim Dmitrievsky #:
Se non lo fa, non ci sono set buoni, logicamente.

Non è logico! Gli insiemi dipendono da FF, per esempio.

 
fxsaber #:

Illogico! Gli insiemi dipendono dalla FF, ad esempio.

Pensate un paio di volte, poi formulate la domanda tenendo conto che quello che state facendo lo sapete solo voi. E se volete essere aiutati dovete essere il più possibile chiari e comprensibili nelle vostre espressioni, oltre a dare il maggior numero di informazioni possibili....
 
mytarmailS #:
Mi chiedo: qualcuno legge questo flusso infinito di articoli intitolati "le reti neurali sono facili"?
Mi sembra che se si calcola il tempo medio di lettura di queste sciocchezze, non superi i 10-15 secondi.


Il tizio sta solo cercando di guadagnare soldi per comprarsi un'auto.

Scorro fino al saldo e mi rendo conto che l'uomo non conosce il seguente detto:

"qui non basta vedere, qui bisogna guardare, qui bisogna pensare...". "

studia il materiale in modo superficiale e le sue conclusioni non sono del tutto competenti.