L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1782

 
Valeriy Yastremskiy:

E cos'è che non ti piace degli incrementi? Sono essenzialmente velocità corrette in base al tempo. Ma non c'è modo di farlo senza fare una media. Ma se si comincia a prendere in considerazione le medie, si finisce rapidamente in un labirinto. Ci deve essere una via di mezzo da qualche parte. All'ultimo tick, la barra non è sufficiente, e un po' di più è il deserto.

2 o più priori con diversi ritardi, per un diverso numero di cluster

Poiché non c'è dipendenza funzionale tra la coppia di incrementi, la nuvola è stupidamente divisa a metà, ecc. Abbiamo bisogno di qualcosa di più rigoroso degli incrementi. Forse dovrebbero essere trasformati in qualche modo.

esempi


 
Maxim Dmitrievsky:

2 o più incrementi con diversi ritardi, su un diverso numero di cluster

Poiché non c'è dipendenza funzionale tra la coppia di incrementi, la nuvola è semplicemente divisa a metà, ecc. Abbiamo bisogno di qualcosa di più rigoroso degli incrementi. Forse dovrebbero essere trasformati in qualche modo.

esempi


Non capisco la coppia di incrementi. Nelle ultime 2 battute o in qualcos'altro?

Ho ancora un'idea nella direzione delle velocità e delle medie. Bene, i sistemi dovrebbero essere addestrati su diversi TF, sull'interazione di diversi TF, e ci dovrebbe essere una schifezza tickwise. cioè ci dovrebbe essere anche un comportamento tickwise quando il TS prende delle decisioni.

I diversi TF non fanno altro che appesantire i segni lontano dallo stato attuale. Semko ha il suo sistema, ma TF mi piace ancora di più, c'è uniformità e una certa considerazione degli estremi.

Mi è venuto in mente. Inseriamo gli ordini alla nuvola di prezzo e quindi il drawdown sarà negativo il 99% delle volte. Ma come possiamo stimare che non ci siamo sbagliati? Usando gli estremi più vicini, se gli estremi più vicini sono negativi, possiamo chiudere senza perdite.

 

Che possiamo misurare su un paio di barre recenti e una storia di 120 barre. In un mese sono 10 anni. Abbastanza, sembra.

Mach 2, 14, 30, 120, 480 velocità e trovare alti e inflessioni

Diffonde tra i tratti adiacenti e trova i massimi e le pieghe

Massime differenze di prezzo da Mashas, ma questi sono di solito i veri estremi del prezzo.

Tempi medi di tendenza, evidenziando massimi e minimi

Differenze medie di tendenza, alla Donchian.

Ed è possibile dividere le tendenze in flussi e le loro durate

Il tempo medio delle tendenze nell'appartamento. Le tendenze dei TF inferiori in quelli superiori.

Il tempo medio delle tendenze.

E sembra che diversi parametri diventino significativi a seconda degli altri. E la connessione non è ovvia. È la prima cosa che viene in mente per collegare il TF inferiore con quello superiore, ma è chiaro che non è sufficiente. E non riesco ancora a trovare alcuna logica nei link.

 
Valeriy Yastremskiy:

Non capisco la coppia di incrementi. Nelle ultime 2 battute o in qualcos'altro?

2 serie temporali con diversi ritardi. Si può raggruppare tutto quello che si vuole, ma poi ci si ritrova di nuovo con un'incomprensione dell'area tematica e di cosa e perché viene raggruppato. Non ho visto nessun esempio di successo su Internet. A proposito, volevo allocare i cluster invece dei componenti stagionali, e me ne sono dimenticato, ho iniziato a infilare MO... Uy... allora sarebbe uno studio diverso
 
mytarmailS:

Beh il tempo è un proxy della volatilità, che è stagionale nel tempo, ci sono ore di trading attivo e ci sono quelle passive

Sono d'accordo, non ne ho tenuto conto.

mytarmailS:

Sì, si può salvare ma per insegnare il modello è necessario caricare questa matrice nell'ambiente, e sarà la fine)) o meglio prima, nella fase di formazione della matrice con i predicati

Prova CatBoost. In ogni caso posso allenarlo e vedremo il risultato.

mytarmailS:

Wow un concerto non è piccolo, mi chiedo quanti segni hai?

566 in questo campione.

mytarmailS:

Cos'è l'albero genetico?


1) semplice )

2) com'è? E come si regolano i predittori per la ZZ?

3) Beh, hai una candela come l'apertura o qualcosa del genere, è già distorta, perché dovrebbero essere da clowes, e qui subito un sacco di confusione, segni per costruire come, come fare l'obiettivo, ecc (dolore inutile), se si cambia qualcosa per te, si dovrebbe sempre lasciare l'originale per gli altri)

Lo script in R, che costruisce un albero usando un algoritmo genetico, selezionando le suddivisioni. Non sono molto ferrato in materia - il lavoro di Doc.


2. Uso i predittori basati su ZZ, ovviamente sono più efficienti se loro e l'obiettivo sono calcolati sulla stessa ZZ.

3. Non conosco il suo OHLC all'inizio della barra, quindi è così che l'ho scritto - come succede nella vita reale.

In conclusione, dovrei rifarlo o non ha senso?

 
Aleksey Vyazmikin:

In conclusione, dovrei rifarlo o non ha senso?

Il catbusto non aiuterà, il problema è la dimensione dei dati, non sarò nemmeno in grado di creare dei tratti, non arriverai nemmeno all'allenamento...

Fare il campione 50k, che sia piccolo, che non sia serio, che sia più possibile il sovrallenamento, .... ..., ... Il compito è quello di fare un robot per la produzione, e solo uno sforzo congiunto per ridurre l'errore, e poi la conoscenza acquisita può essere trasferita a qualsiasi strumento e il mercato, 50k è abbastanza per vedere quali segni che qualcosa è importante.

Aleksey Vyazmikin:

3. All'inizio della barra non conosco il suo OHLC, così l'ho scritto - come succede nella vita reale.

Perché spostare l'intero OHLC? Nessuno lo fa, basta spostare ZZ di un passo, come per guardare nel futuro di 1 passo per l'allenamento ed è tutto. Vorrei chiedervi se avete letto uno qualsiasi degli articoli di Vladimir Perervenko sul deerlining, per favore leggeteli, sono molto scomodi quando abbiamo già stabilito il modo ottimale di trattare i dati e tutti sono abituati a loro, e qualcuno cerca di fare lo stesso ma in un modo diverso, è un po' insensato e fastidioso, e causa molti errori nelle persone che cercano di lavorare con i dati di questo autore.


Se dopo tutto questo volete ancora fare qualcosa, ho i seguenti requisiti

1) i dati 50-60k non di più, preferibilmente un file, solo d'accordo che il n dell'ultima candela sarà il test

2) I dati, preferibilmente senza colle, in modo da poter considerare non solo gli ultimi prezzi, ma anche supporto e resistenza, cosa impossibile con le colle

3) l'obiettivo dovrebbe essere già incluso nei dati

4) dati nel formato data, ora, o, h, l, c, target


O devo creare un set di dati?

 
Maxim Dmitrievsky:
Due serie temporali con ritardi diversi. Si può raggruppare tutto quello che si vuole, ma poi ci si blocca di nuovo nell'incomprensione dell'area tematica e di ciò che viene raggruppato e perché. Non ho visto nessun esempio di successo su Internet. A proposito, volevo allocare i cluster invece dei componenti stagionali, e me ne sono dimenticato, ho iniziato a infilare MO... Uy... allora sarebbe uno studio diverso

Succede, la logica non ha pazienza per le stronzate )))) .... Finora ci sono problemi di comprensione. C'è solo la media, il diradamento e i GA con l'apprendimento su dati abbastanza brevi. Non ho visto nemmeno un lavoro sulla separazione delle caratteristiche della serie. Da un lato l'analisi delle serie per le diverse TF dovrebbe essere identica. Ci dovrebbero essere dei criteri per passare a un TF più basso. Ad esempio, se le tendenze con sufficiente diffusione e velocità sono determinate sul TF inferiore, allora è possibile muoversi verso di esse contro la tendenza del TF superiore. Ma questa è la logica. Dovremmo in qualche modo raggruppare le caratteristiche e guardare i diversi comportamenti della serie. Se dal contrario per risolvere.

Nella centrale nucleare stavamo guardando 19 parametri. Avevano una tabella da 3 a 7 parametri quando la zona è rossa e le barre dovrebbero essere rimosse. Anche lì non c'era un solo parametro e non erano collegati tra loro. Il nostro è diverso, naturalmente, ma la scala temporale è troppo grande, e non c'è, o non sempre, una connessione tra le zecche e il comportamento mensile. In generale, dovremmo guardare la relazione tra i parametri, e per quanto tempo questa relazione esiste.

Ma è ancora complicato.

 
Valeriy Yastremskiy:

Succede, la logica non ha pazienza per le stronzate )))) .... Con la comprensione finora ci sono problemi. C'è solo la media, il diradamento e i GA con l'apprendimento su dati abbastanza brevi. Non ho visto nemmeno un lavoro sulla separazione delle caratteristiche della serie. Da un lato l'analisi delle serie per le diverse TF dovrebbe essere identica. Ci dovrebbero essere dei criteri per passare a un TF più basso. Ad esempio, se le tendenze con sufficiente diffusione e velocità sono determinate sul TF inferiore, allora è possibile muoversi verso di esse contro la tendenza del TF superiore. Ma questa è la logica. Dovremmo in qualche modo raggruppare le caratteristiche e guardare i diversi comportamenti della serie. Se dal contrario per risolvere.

Nella centrale nucleare stavamo guardando 19 parametri. Avevano una tabella da 3 a 7 parametri quando la zona è rossa e le barre dovrebbero essere rimosse. Anche lì non c'era un solo parametro e non erano collegati tra loro. Il nostro è diverso, naturalmente, ma la scala temporale è troppo grande, e non c'è, o non sempre, una connessione tra le zecche e il comportamento mensile. In generale, dovremmo guardare la relazione tra i parametri, e per quanto tempo questa relazione esiste.

Ma è un po' difficile.

Non passo davanti a un bombardiere con una testata nucleare senza una battuta :)
 
Maxim Dmitrievsky:
Non passo davanti a un bombardiere con una testata nucleare senza una battuta :)

Cosa si può fare senza di loro, in questo deserto)))) La merda nucleare è dove tutto è iniziato, calcolatore di probabilità con medie, feedback e bayesiano, il criterio di fiducia è qualcosa))) A quanto pare gli stessi parametri dovranno essere prima selezionati manualmente. Anche molti di loro.

In generale, l'idea è quella di guardare una serie di 120 barre e tirarne fuori qualcosa in diverse varianti. Non è bene misurare e allenarsi sugli stati attuali.

 
Valeriy Yastremskiy:

Cosa si può fare senza di loro, in questo deserto)))) La merda nucleare è dove tutto è iniziato, calcolatore di probabilità con medie, feedback e bayesiano, il criterio di fiducia è qualcosa))) A quanto pare gli stessi parametri dovranno essere prima selezionati manualmente. Anche molti di loro.

In generale, l'idea è quella di guardare una serie di 120 barre e tirarne fuori qualcosa in diverse varianti. Non è bene misurare e allenarsi sugli stati attuali.

Quali sono gli stati attuali? Se si tratta di cluster, devi solo spazzare le statistiche sui nuovi dati. Se sono uguali, potete costruire CA.

Motivazione: