L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 614

 

È possibile iniziare a imparare esattamente come fare trading? Dopo tutto, il rischio che io perda il mio conto, di cui non ho dubbi, è molto alto.

 

Ma Micha ha promesso di battere Java, quindi brillerà presto.

Mi chiedo perché non Python? Forse è la stessa R? Non capisco.
 
Ildottor Trader:

Ho visto spesso in EAs da Market che buoni per i parametri di trading formano un plateau nella funzione di ottimizzazione. Se per esempio c'è MA o RSI nei parametri, o qualche coefficiente, allora cambiare il parametro di un piccolo valore non ha influenzato il risultato finale.

Ma è logico, la maggior parte dei parametri lì sono utilizzati nella formula per il calcolo dell'indicatore, quindi un piccolo cambiamento influenzerà solo leggermente il risultato, che sarà ancora calcolato sugli stessi prezzi.

E nel machine learning al contrario - i parametri possono avere un effetto valanga su tutto il corso dell'apprendimento, e anche un piccolo cambiamento porta a un risultato completamente diverso. Per esempio, il numero di neuroni in uno strato nascosto - se li aumentiamo, aumenterà anche il numero di pesi utilizzati, e la funzione di inizializzazione dei pesi usando gpsc imposterà i loro valori in un ordine leggermente diverso, che porterà a un altro risultato.
Il cambiamento di alcuni parametri disegnerà anche un plateau nella funzione di ottimizzazione. Per ogni parametro si può studiare l'influenza regolare o stocastica sulla valutazione risultante del modello, e per i parametri che influenzano in modo regolare si dovrebbe usare l'ottimizzatore in aggiunta basato sulle derivate (funzione optim(method="L-BFGS-B") e optimize() in R)

Non è un mercato, non è affatto un mercato - è una statistica con una serie di test sulla stabilità dei rapporti. Il più famoso è CUSUM.

Quindi forse la mostruosa dipendenza del risultato dai parametri di rete da voi indicati indica che fondamentalmente NON sono adatti ai mercati finanziari?

O forse bisogna prima costruire qualcosa di adatto allo scopo (un trattore - qui è di moda, o un razzo), e poi discutere sulla stabilità di ciò che si ottiene?

Ma comunque: o abbiamo la prova della stabilità del modello o non serve affatto. L'errore del modello e la stabilità del modello sono due facce della stessa medaglia.

 
Yuriy Asaulenko:
Mi chiedo perché non Python? Forse la stessa R? Non capisco.

Infatti. Dato che avete una tale voglia di sapere, prendete una valutazione e studiate ciò che vi sembra adatto dall'alto.

 
Ildottor Trader:

Il modello di Reshetov non è un punto di riferimento. Per esempio, cerca un insieme di predittori provando diverse varianti - il modello prende un insieme casuale di predittori, impara e ricorda il risultato. Questo viene ripetuto un numero enorme di volte in un ciclo, e il risultato migliore viene usato come modello finale. Questo processo può essere notevolmente accelerato se prima si fa una selezione di predittori con un algoritmo speciale, e poi si allena il modello di Reshetov solo una volta su quel particolare set. E si ottiene la qualità del modello Reshetov a una velocità paragonabile a quella di AWS. Il "costo" di un tale modello diminuirà sensibilmente, ma la qualità rimarrà la stessa.


Che tipo di algaritmo è questo? In generale sono d'accordo con l'affermazione, prezzo e qualità sono cose leggermente diverse. È possibile ottenere un modello economico ma di alta qualità. Il vero problema di Reshetov è che impiega troppo tempo per il calcolo a causa della divisione ripetuta del campione a caso, ecc.

Di nuovo, quali sono questi algoritmi che possono dire immediatamente quale predittore è irrilevante? Ha qualche modo per implementarlo, ma non l'ho ancora guardato bene.... In effetti, lo definisce tramite invariante, il che è logicamente abbastanza attuale, ma penso che ci siano degli errori lo stesso :-( più che errori, non credo che ci siano correzioni...

 

Se usiamo 2 strati nascosti, allora ovviamente il 2° strato è molto più piccolo in numero di neuroni del 1° strato.

Qual è il minimo per il numero di neuroni in uno strato? Non credo che abbia senso fare meno di 3-5.

O lo strato con 1 - 2 neuroni può anche dare un contributo significativo al modello?

 
elibrario:

Se usiamo 2 strati nascosti, allora ovviamente il 2° strato è molto più piccolo in numero di neuroni del 1° strato.

Qual è il minimo per il numero di neuroni in uno strato? Non credo che abbia senso fare meno di 3-5.

O lo strato con 1 - 2 neuroni può anche dare un contributo significativo al modello?


Dalla pratica - 1 neurone con 3 ingressi può scalfire segnali normali per 1-1,5 mesi su grafici a 15 minuti e circa 200 trade, se prendiamo un campione più grande allora la qualità del cramming scende drasticamente e così anche il numero di trade, non ci sono abbastanza combinazioni. Cioè, se il sistema rimane fermo e i segnali si ripetono, 1 neurone sarebbe sufficiente anche.

lo stesso con la logica fuzzy su 3 ingressi circa, e con l'ottimizzazione di 4 funzioni di appartenenza
 
Mihail Marchukajtes:

Di nuovo, che tipo di algoritmi ci sono? che possono dire a colpo d'occhio quale predittore è irrilevante.

Ci sono molti algoritmi, anche più di quanto si vorrebbe. Per esempio -

Articolo da Vladimir -https://www.mql5.com/ru/articles/2029

Articolo di Alexey -https://habrahabr.ru/company/aligntechnology/blog/303750/

 

Per coloro che amano caricare il processore con ogni sorta di cose quando modellano, ecco un modo per ridurre drasticamente il tempo.


Le simulazioni parallele nel cloud valgono la pena? Benchmarking del mio MBP contro la mia workstation contro Amazon EC2

Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
  • Kristoffer Magnusson
  • www.r-bloggers.com
If you tend to do lots of large Monte Carlo simulations, you’ve probably already discovered the benefits of multi-core CPUs and parallel computation. A simulation that takes 4 weeks without parallelization, can easily be done in 1 week on a quad core laptop with parallelization. However, for even larger simulations reducing the computation time...
 
SanSanych Fomenko:

Per coloro che amano caricare il processore con ogni sorta di cose quando modellano, ecco un modo per ridurre drasticamente il tempo.

Le simulazioni parallele nel cloud valgono la pena? Benchmarking del mio MBP contro la mia workstation contro Amazon EC2

C Dll e una richiesta di installare mt5, R e i pacchetti giusti - apparentemente non è realistico arrivarci.

Motivazione: