L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1555

[Eliminato]  
Aleksey Vyazmikin:

L'idea del mix è interessante, ma penso che tu debba randomizzare il movimento dei prezzi da un punto chiave all'altro. E i blocchi stessi dovrebbero essere creati usando ZZ, allora sembrerà davvero un mercato.

Poi il modello catturerà i modelli che portano a quegli estremi. E i nuovi dati potrebbero rivelarsi una sciocchezza.

il mio modello impara a non essere legato alla forma del movimento dei prezzi, ma a imparare piccoli modelli come il clustering della volatilità, che distingue il mercato dal SB. Quindi è puraeconometria(nella mia versione)

Ho ottimizzato e mi sono reso conto che il mio portatile non può più gestirlo. Devo procurarmi dell'hardware decente. Ma questo mi spingerà a un codice subottimale, quindi vedrò cosa posso fare.

La seconda opzione è quella di buttare via il catbust e riscrivere tutto nella foresta in mql. Ma è più conveniente indagare in python
 
Maxim Dmitrievsky:

allora il modello catturerà i modelli che portano a questi estremi. E su nuovi dati potrebbe rivelarsi un'assurdità.

il mio modello impara a non essere legato alla forma del movimento dei prezzi, ma a imparare piccoli schemi come il clustering della volatilità, che distingue il mercato dal SB. Quindi è pura econometria(nella mia versione)

Ho ottimizzato e mi sono reso conto che il mio portatile non può più gestirlo. Devo procurarmi dell'hardware decente. Ma mi spingerà a un codice subottimale, quindi vedrò cosa posso fare.

Non so, secondo me solo affettare i cluster per ZZ è produttivo, soprattutto se si aggiungono a loro le regole medie di costruzione dal mercato. Il punto è che un punto può essere raggiunto da diversi percorsi, e il campione si concentra solo su un piccolo insieme di tali percorsi, e in questo modo il campione sarà equilibrato. Forse abbiamo obiettivi diversi, quindi pensiamo in modo diverso a ciò che funzionerebbe meglio per un particolare studio. Hai solo cluster della stessa dimensione regola, che genera solo SB se i predittori prendono i dati alle giunzioni dei due cluster...

E il ferro - sì, prendilo, se accelera il volo della fantasia!

[Eliminato]  
Aleksey Vyazmikin:

Non so, secondo me è produttivo affettare i cluster per ZZ, soprattutto se si aggiungono regole medie di costruzione dal mercato. Il punto è che un punto può essere raggiunto da diversi percorsi, e il campione si concentra solo su un piccolo insieme di tali percorsi, e quindi il campione sarà equilibrato. Forse abbiamo obiettivi diversi, quindi pensiamo in modo diverso a ciò che funzionerebbe meglio per un particolare studio. Hai solo cluster della stessa dimensione regola, che genera solo SB se i predittori prendono i dati alle giunzioni dei due cluster...

E il ferro - sì, prendilo se accelera il volo della fantasia!

ah, beh, si possono fare anche grappoli di dimensioni diverse, non sono sicuro che si salverà

Penso che l'idea di mescolare sia difettosa, ma è interessante.

 
Maxim Dmitrievsky:

ah, beh, si possono fare anche gruppi di diverse dimensioni, non necessariamente per risparmiare

Penso che l'idea di mescolare sia difettosa, ma è interessante.

Il campionamento casuale o lo shuffling (se ho capito bene) è uno dei modi per ridurre l'overshoot. Non so quanto sia utile nella regressione, ma funziona bene nella classificazione.
Mi sembra che in questo momento ci sia un certo confronto tra gli algoritmi che avvicinano la funzione all'obiettivo e gli algoritmi che lo impediscono. Un certo tipo di resistenza si verifica nel processo di apprendimento. Rendiamo la vita interessante :-)
Se non c'è resistenza, l'apprendimento si sta avvicinando troppo rapidamente all'obiettivo e quindi il superamento della soglia di sovraapprendimento è molto probabile.
Se c'è resistenza, ma debole, l'effetto è lo stesso.
Se la resistenza è troppo forte, si verifica un sottoapprendimento e il modello non può raggiungere l'intervallo di confidenza in cui si trova la zona di generalizzazione, mostrando scarsi risultati per l'apprendimento stesso. Anche questo non va bene.
Conclusione uno, resistenza all'apprendimento. Oppure i metodi volti a ridurre l'overlearning dovrebbero essere bilanciati con l'algoritmo di base per portare fuknts con una coerenza invidiabile all'intervallo di confidenza, ma in nessun modo andare oltre o farlo molto raramente.
[Eliminato]  
Mihail Marchukajtes:
Il campionamento o la miscelazione casuale (se ho capito bene) è un modo per ridurre il sovrallenamento. Non so se sia utile nella regressione, ma funziona bene nella classificazione.
Mi sembra che in questo momento ci sia un certo confronto tra gli algoritmi che avvicinano la funzione all'obiettivo e gli algoritmi che lo impediscono. Un certo tipo di resistenza sorge nel processo di apprendimento. In modo che la vita non sembri miele :-)
Se non c'è resistenza, l'apprendimento si sta avvicinando troppo rapidamente all'obiettivo e quindi il superamento della soglia di sovraapprendimento è molto probabile.
Se c'è resistenza, ma è debole, l'effetto è lo stesso.
Se la resistenza è troppo forte, si verifica un sottoapprendimento e il modello non può raggiungere l'intervallo di confidenza in cui si trova la zona di generalizzazione, mostrando scarsi risultati per l'apprendimento stesso. Anche questo non va bene.
Conclusione uno, resistenza all'apprendimento. Oppure i metodi volti a ridurre l'overlearning devono essere equilibrati rispetto all'algoritmo di base, in modo che il fukncion arrivi all'intervallo di confidenza con una coerenza invidiabile, ma non ci salti sopra o lo faccia molto raramente.

Questo è vero, ma quando non ci sono regolarità nei ritorni, è un lavoro da uomo morto)

 
Aleksey Vyazmikin:

L'idea del mix è interessante, ma mi sembra che tu abbia bisogno di randomizzare il movimento dei prezzi da un punto chiave all'altro. E i blocchi stessi dovrebbero essere creati usando ZZ, e poi sembrerà un mercato.

Non usare ZZ o altri indicatori aggiuntivi. Solo OHLC per diversi timeframe (i timeframe dovrebbero differire di 4-6 volte). Per esempio, 1-5-30-H3... fino a un mese di tempo. Sceglietelo voi stessi) e, forse, più zecche per l'allarme precoce.

Con i prezzi dei massimi e dei minimi separatamente le strutture convoluzionali. Per OHLC - la struttura di ricorrenza. E così per tutti i prezzi dell'usato. I segnali di tutto questo sono ulteriormente alimentati, per esempio, alla rete mesh completa.

Inoltre, inserite i tick passati attraverso la rete di ricorrenza in uno degli ingressi della rete a maglie piene.

Ottimizzare la velocità di aumento dei depositi. Di conseguenza, la maglia dovrebbe decidere da sola qual è il volume del lotto e selezionare i punti di apertura e chiusura. Come questo.

 
Eugeni Neumoin:

Non usare ZZ o altri indicatori aggiuntivi. Solo OHLC da diversi tf (i tf dovrebbero differire di un fattore 4-6). Per esempio, 1-5-30-H3... fino a un mese di tempo. Sceglietelo voi stessi) e, forse, più zecche per l'allarme precoce.

Con i prezzi dei massimi e dei minimi separatamente le strutture convoluzionali. Per OHLC - la struttura di ricorrenza. E così per tutti i prezzi dell'usato. I segnali di tutto questo sono ulteriormente alimentati, per esempio, alla rete mesh completa.

Inoltre, inserite i tick passati attraverso la rete di ricorrenza in uno degli ingressi della rete a maglie piene.

Ottimizzare la velocità di aumento dei depositi. Di conseguenza, la maglia dovrebbe decidere da sola qual è il volume del lotto e selezionare i punti di apertura e chiusura. Come questo.

Cosa propone come funzione obiettivo per le reti intermedie? Cioè, che cosa dovrebbe essere addestrato a fare?
[Eliminato]  
Eugeni Neumoin:

Non usare ZZ o altri indicatori aggiuntivi. Solo OHLC da diversi tf (i tf dovrebbero differire di un fattore 4-6). Per esempio, 1-5-30-H3... fino a un mese di tempo. Sceglietelo voi stessi) e, forse, più zecche per l'allarme precoce.

Con i prezzi dei massimi e dei minimi separatamente le strutture convoluzionali. Per OHLC - la struttura di ricorrenza. E così per tutti i prezzi dell'usato. I segnali di tutto questo sono ulteriormente alimentati, per esempio, alla rete mesh completa.

Inoltre, inserite i tick passati attraverso la rete di ricorrenza in uno degli ingressi della rete a maglie piene.

Ottimizzare la velocità di aumento dei depositi. Di conseguenza, la maglia deve decidere da sola il volume del lotto e selezionare i punti di apertura e chiusura. Come questo.

E c'è un fiocco in cima ad esso)

 
Elibrarius:
Cosa propone come funzione obiettivo per le reti intermedie? Cioè cosa dovremmo insegnare loro?

Sul tasso di aumento dei depositi. Questa è la funzione di destinazione. La convoluzione degli alti e la convoluzione dei bassi sono alcuni analoghi della ZZ. Rivela frattali di onde. Strutture di ricorrenza secondo OHLC - combinazioni di candele - modelli di candele (frattali) sono catturati qui.

Le griglie basate su dati provenienti da diversi TF identificano frattali su diversi TF. La funzione obiettivo della velocità di aumento del deposito definisce fino a che punto i frattali che appaiono su diverse pieghe devono essere presi in considerazione.

Maxim Dmitrievsky:

e un fiocco sopra di esso)

Questo è per i dilettanti.


 
Eugeni Neumoin:

Dal tasso di aumento del deposito. Questa è la funzione di destinazione.

Da cosa è composto il deposito? Dai comandi di acquisto/vendita/attesa.

Questi comandi saranno addestrati dal NS finale. E poi predirli.
Su cosa dovrebbero essere addestrate le reti intermedie? ZigZag? Per addestrare una rete, ha bisogno di mostrare una risposta. Quale algoritmo a zig zag e con quali parametri proponi di usare come segnale di allenamento?