L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3074

 
fxsaber #:

Formuli di nuovo la sua domanda.

Se avete fatto trading sul Forex reale, non è che di notte, verso l'una di notte, allargano lo spread? Proprio come nelle cucine normali.
 
mytarmailS #:
Se avete fatto trading sul Forex reale, non è che di notte, verso l'una, allargano lo spread? Proprio come nelle cucine normali.

.

 
I commenti non pertinenti a questa discussione sono stati spostati in "Off Topic".
 
Valeriy Yastremskiy #:

Sì, la M5)

Lo ripeto ora) Meno male che ho enidesk e l'accesso al mio computer di lavoro))))

270 dollari. e il miglior sl 11500, complessivamente 5200 sl e 350 tp è circa lo stesso risultato.

Forse lo spread è grande. Ho più profitto, nel complesso la curva è la stessa. La curva di apprendimento degli ultimi anni è stata un po' dura, sì. Ma quelli precedenti sono migliori.

 
Andrey Dik #:
Come sarebbe tutto se il mondo non fosse liscio.....
interessante, ma sorgono subito molte domande: sì, tutti gli "esseri" sono ciechi per quanto riguarda la decisione successiva, ma se si conosce (si vede) una decisione migliore, allora il punto di prendere una decisione scompare - il libero arbitrio scompare? strano puzzle logico.
ci sono molte strategie di ricerca, aperte o meno, ma è noto che orientarsi all'optimum noto alla società non sempre permette di trovare una soluzione migliore (di nuovo il paradosso della trappola del pensiero collettivo).

Nel mercato questo optimum cambia continuamente - come il terreno del pianeta dopo un terremoto.... e quindi il nostro compito è quello di prevedere quando accadrà, o dopo, ma soprattutto il momento in cui è necessario cercare un nuovo optimum....

 
Un documento che mette a confronto diversi metodi. Oltre ai video e al libro. Contiene molti riferimenti ad altri documenti.
Non si trova nelle sezioni di statistica o nei libri MOE. È un po' come se dovesse trovarsi in econometria, ma non c'è nemmeno lì. In qualche modo sta in piedi da solo.
Uno dei ricercatori (che ha proposto il double machine learning, credo nel 2018) è il nostro emigrato Chernozhukov. Il suo lavoro è anche in inglese. Anche Prado ha adottato i suoi metamodelli da lì, a quanto pare. Ma in modo molto superficiale.

 
Maxim Dmitrievsky #:
Un documento che mette a confronto diversi metodi. Oltre ai video e al libro. Contiene molti riferimenti ad altri documenti.
Non si trova nelle sezioni di statistica o nei libri MOE. Come se dovesse trovarsi in econometria, ma non c'è nemmeno lì. È un po' a sé stante.
Uno dei ricercatori (che ha ideato il double machine learning, credo nel 2018) è il nostro emigrato Chernozhukov. Il suo lavoro è anche in inglese. Anche Prado ha adottato i suoi metamodelli da lì, a quanto pare. Ma in modo molto superficiale.

h ttps://arxiv.or g/pdf/2201.12692.pdf


Da questa immagine.

Per il MO, il campionamento sequenziale non è accettabile - solo il campionamento casuale, e non solo casuale.

 
СанСаныч Фоменко #:

Da questa immagine.

Per il MO, il campionamento sequenziale non è accettabile - solo il campionamento casuale, e non solo il campionamento casuale.

Maxim Dmitrievsky #:
Documento che confronta diversi metodi. Oltre ai video e al libro. Contiene molti riferimenti ad altri documenti.
Non si trova nelle sezioni di statistica o nei libri MOE. Come se dovesse trovarsi in econometria, ma non c'è nemmeno lì. È un po' a sé stante.
Uno dei ricercatori (che ha proposto il double machine learning, credo nel 2018) è il nostro emigrato Chernozhukov. Il suo lavoro è anche in inglese. Anche Prado ha adottato i suoi metamodelli da lì, a quanto pare. Ma in modo molto superficiale.

h ttps://arxiv.or g/pdf/2201.12692.pdf


Articolo meraviglioso!

Da come ho capito le applicazioni, il risultato della classificazione dipende non solo dalla qualità dei dati originali, ma anche dal modo in cui formiamo il set di addestramento e di valutazione. E da qualcos'altro che non ho ancora capito.

 
СанСаныч Фоменко #:

Articolo meraviglioso!

Da come ho capito le applicazioni, il risultato della classificazione dipende non solo dalla qualità dei dati originali, ma anche dal modo in cui formiamo il set di addestramento e di valutazione. E da qualcos'altro che non ho ancora capito.

Hehe. Guardare altri video prima di questo potrebbe chiarire il quadro. Il punto è trovare tali campioni nei dati, diciamo X con un vettore di valori di caratteristiche W, che reagiscono il meglio possibile alla formazione (l'addestramento del modello nel nostro caso) e assegnarli alla classe "to trade", quando gli altri è meglio non toccarli, "not to trade", perché reagiscono male all'addestramento (su nuovi dati il modello commette un errore quando li include nel gruppo di valutazione). Nel marketing, questi sono esempi di utenti. Un campione di utenti sarà influenzato da una campagna pubblicitaria, ma per altri non vale la pena utilizzare il budget della campagna.

Io la vedo così nel contesto del TC.

 
Maxim Dmitrievsky #:

Hehehe. Guardate altri video prima di questo, forse vi chiarirà il quadro. Il punto è trovare tali campioni nei dati, diciamo X con un vettore di valori di caratteristiche W, che reagiscono il meglio possibile alla formazione (l'addestramento del modello nel nostro caso) e assegnarli alla classe "to trade", mentre gli altri è meglio non toccarli, "not to trade", perché non reagiscono bene all'addestramento (su nuovi dati il modello commette un errore nell'includerli nel gruppo della formazione). Nel marketing, questi sono esempi di utenti. Quando un campione di utenti sarà influenzato da una campagna pubblicitaria, ma non è opportuno utilizzare il budget della campagna pubblicitaria su altri.

Io la vedo così nel contesto del TC.

La tua comprensione ha un persistente sentore di determinismo, mentre l'articolo è l'apoteosi della casualità e persino di dati sbilanciati. Non c'è selezione del campione, è l'opposto. Raccomandiamo X-learner, che

stima innanzitutto le due funzioni di risposta µ(x, 1) e µ(x, 0). Utilizza poi queste stime per imputare gli effetti individuali non osservati del trattamento per i trattati, ˜ξ 1 i , e per i controlli, ˜ξ 0 i . Gli effetti imputati sono a loro volta utilizzati come pseudo-outcomes per stimare gli effetti del trattamento nel campione trattato, τ (x, 1), e nel campione di controllo, τ (x, 0), rispettivamente. La stima finale di CATE τ (x) è quindi una media ponderata di queste stime dell'effetto del trattamento, ponderata per il punteggio di propensione e(x). In questo modo, l'X-learner utilizza anche le informazioni dei trattati per conoscere i controlli e viceversa, in uno stile di regressione incrociata, da cui il termine X nella sua denominazione.

Niente di meglio di una "buona" selezione.

Motivazione: