L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2645

 
Aleksey Nikolayev #:

Può darsi che sia così. Ma sembra essere un approccio più interpretabile al confronto/selezione delle caratteristiche e all'ottimizzazione dei metaparametri.

Cosa è successo con le regole asociali?
 
mytarmailS #:
E le regole associative non hanno funzionato?

L'idea è generalmente chiara. In ogni caso, dobbiamo prima pensare a un algoritmo per partizionare un insieme continuo di predittori in elementi discreti da cui formare le regole. Se tali buoni predittori e il loro buon partizionamento esistono davvero e vengono trovati, il resto è una questione di tecnica.

 
Aleksey Nikolayev #:

L'idea è generalmente chiara. In ogni caso, per prima cosa dobbiamo pensare a un algoritmo per partizionare un insieme continuo di predittori in elementi discreti da cui formare le regole. Se tali buoni predittori e il loro buon partizionamento esistono davvero e vengono trovati, il resto è una questione di tecnica.

All'inizio ho scritto qualcosa di sbagliato, stavo pensando alla cosa sbagliata.
Tutto dipende da ciò che si vuole fare. Se si cercano dei livelli chiari, ho semplicemente normalizzato e arrotondato un po' il prezzo per trovare un modello di rimbalzo, ma lo spazio di ricerca è grande e la ripetibilità è piccola. Ma se si tratta di qualcos'altro, il normale clustering è una buona soluzione.
 

Esperimento con la regressione simbolica...

In sostanza, vengono implementate regole asociative sequenziali, ma al posto di elementi statici - regole logiche. Ciò conferisce maggiore profondità all'algoritmo, che può comprendere le sue osservazioni in modo molto più sottile. Questo concetto permette di descrivere qualsiasi tipo di regolarità, perché la complessità e il tipo di regole non sono limitati da nulla.

C'è un problema di catrame: l'algoritmo non può permettersi di studiare grandi matrici di dati, perché è molto lungo a causa delle peculiarità della sua architettura.

Pertanto, ho ideato alcuni approcci per ridurre la dimensionalità della ricerca.

1) Mi interessano solo gli estremi, concentrandosi su di essi si riduce lo spazio di ricerca di 10-20 volte, e in realtà tutto ciò che ci serve dal mercato è sapere se si tratta di un'inversione o meno, trend-schmend, flatts-schmets... queste sono cavolate soggettive che ci impediscono di concentrarci sulla cosa principale.

2) Ho inventato e implementato qualcosa di simile al "one shot learning", per come la vedo io, ora non ho bisogno di calcolare l'intera storia per imparare qualcosa, non è un know-how figo, è più una disperazione, perché imparare sull'intera storia non funzionerà, almeno non ancora.

Per ora ci sono solo i primi esperimenti, ma posso dire con certezza che l'algoritmo non è completamente stupido e che c'è qualcosa da imparare.


L'algoritmo di trading stesso è costituito da pattern, un pattern è un insieme di regole per una situazione specifica.

Ecco come appare un pattern per una situazione.

Le regole sono primitive, ma ci stiamo solo scaldando).

Il pattern viene negoziato come il forrest, ci sono molte regole nel pattern, se viene attivata una certa soglia di regole, URAH riconosce l'inversione e la negozia.

L'aspetto è simile a questo.

È così.


Qual è la bellezza dell'algoritmo?

1) Scavare in profondità nel pattern, se così si può dire.

2) Non è legato agli indici e non lavora con dati tabellari, quindi è resistente alla non stazionarietà e alle regole associative.

 

A proposito, potrebbe essere interessante per qualcuno.

Molto spesso se il rimbalzo non funziona, la resistenza diventa un supporto.

Come nell'immagine.

E questo può essere spiegato, quindi i livelli ci sono, non possono non esserci.

 
Aleksey Nikolayev #:

Sto pensando alla possibilità di combinare la mia idea con quella dell'algoritmo PRIM. Non ho molto di cui vantarmi.

Curiosamente, questo PRIM contiene le stesse idee che sto cercando di realizzare.

Ho letto l'articolo, ma ci sono alcune confusioni:

1. Qual è il processo di quantizzazione per il partizionamento dei confini? Si tratta di una partizione uniforme con un certo passo?

2. È chiaro con i confini - lo faccio anch'io, ma hanno un ulteriore ritaglio nell'immagine - il secondo ritaglio è una stupida esclusione del campionamento?

3. Se ho capito bene, loro, come me, considerano ogni predittore separatamente - trovando le cosiddette "scatole", ma non ho capito dalla descrizione come vengono combinati questi diversi predittori.

Lo svantaggio di questo metodo è che valuta la stabilità degli indicatori attraverso un campionamento bootstrap(prendendo a caso una determinata percentuale del campione dall'intero campione), il che non permette di comprendere la dinamica della stabilità degli indicatori, che a sua volta è importante per il trading, perché il pattern può esistere all'inizio del campione, ma scomparire completamente alla sua fine.

Avete dei miglioramenti da apportare a questo metodo?

 
mytarmailS #:

Sperimentare la regressione simbolica.....

In sostanza, vengono implementate regole asociative sequenziali, ma al posto di elementi statici - regole logiche. Ciò conferisce maggiore profondità all'algoritmo, che può comprendere le sue osservazioni in modo molto più sottile. Questo concetto permette di descrivere qualsiasi tipo di regolarità, perché la complessità e il tipo di regole non sono limitati da nulla.

Ho capito bene che si tratta della stessa tabella con i predittori, ma le disuguaglianze sono costruite non solo dai punteggi dei predittori, ma anche dalle disuguaglianze dei predittori stessi tra di loro?

mytarmailS #:


2) Ho inventato e implementato qualcosa di simile al "one shot learning" per come la vedo io, ora non ho bisogno di calcolare l'intera storia per imparare qualcosa, non è un know-how figo, è più una disperazione, perché imparare sull'intera storia non è possibile, almeno non ancora.

Cioè prendere un esempio, generare molte varianti di foglie (modelli) costituite da disuguaglianze e poi testarle su un campione più ampio, quelle che mostrano risultati accettabili - lasciarle, giusto?

mytarmailS #:

Qual è la bellezza dell'algoritmo?

1) Va in profondità nel modello, se posso dirlo.

2) Non è legato a indici e non lavora con dati tabellari, quindi è resistente alla non stazionarietà e alle regole associative.

E qui non capisco: se i dati non sono in tabelle, in che modo li fate lavorare?

 
Aleksey Vyazmikin #:
1. Qualsiasi cosa, il limite della fantasia
2. Sì
3. così come le regole associative, ma più profonde
 
mytarmailS #:
1. Qualsiasi cosa, il limite della fantasia
2. Sì
3. Come le regole associative, ma più in profondità

1. Si può essere più specifici - ad esempio, che altro potrebbe essere.

2. È chiaro e quanto velocemente vengono generate queste regole? Forse ha senso caricarle su MQL5 ed eseguirle attraverso la cronologia - potrebbe essere più veloce grazie agli agenti. Ho già fatto qualcosa di simile, di cui ho scritto molto tempo fa, ma ho preso le foglie dagli alberi genetici.

3. Non capisco la risposta: cosa si inserisce nell'input, questa è la domanda.

 
secret graal già pronto, l'autore inizierà a spiegare in risposta che razza di idiota è)

C'è del vero in questa spiegazione, perché non esiste una definizione del concetto di "GRAIL nel trading", in modo che tutti noi possiamo essere d'accordo con questa definizione.....

E se non c'è una definizione, allora inizia il "cigno, il gambero e il luccio"....

Motivazione: