L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1045

 
Maxim Dmitrievsky:

Finché nessuno mi spinge, è molto difficile muoversi in questa direzione, non faccio trading al momento, finisco il sistema quando sono in vena... perché devo pensare lì, e non mi piace pensare

Sono d'accordo, ho lo stesso problema. Ho pensato, c'è qualcosa che si può vedere (intendo il monitor dell'account) o sentire quello che ho affrontato.
 
mytarmailS:

Sì, meglio passare un anno sulla teoria e l'implementazione di diverse trasformazioni che passare 5 min in python o R per capire che questa merda non funziona, la logica è la più forte, ascolta, perché non crei un tuo linguaggio di programmazione? perché hai bisogno di mql, c++ o qualsiasi altra cosa su cui sei seduto...

Non è la teoria il problema, ma il modo in cui la capisci, più il giusto approccio per presentare tutto ciò che hai imparato durante la tua analisi.

Ci sono momenti in cui una persona fa un lavoro erculeo di raccolta e sistematizzazione dei dati, ma non riesce ad applicarli correttamente.

 
Farkhat Guzairov:

Ci sono momenti in cui una persona fa un lavoro erculeo di raccolta e sistematizzazione dei dati, ma non riesce ad applicarli correttamente.

Sono d'accordo, succede.

 
Vizard_:

Hai promesso di mostrarmi equi nel cielo in autunno e di girare un video di allenamento)))

Beh, chi sapeva che sarei stato cablato dal GIGANTE transatlantico intercontinentale !!!! Ho dovuto passare tutto il periodo di prova per imparare il mestiere e viaggiare per i corsi di formazione. Sono anche andato a Kazan durante i campionati. Ma non ho rinunciato al trading, anche se l'ho fatto per lo più di sabato, e proprio di recente ho fatto un errore per caso e ho ottenuto un altro miglioramento dei dati. Il miglioramento implica ancora più separabilità. Figura 2 sopra. Questo ha portato al fatto che l'ottimizzatore Reshetov è stato riqualificato, il che non è appropriato per esso in linea di principio, perché è fondamentalmente schiacciato per l'incompletezza, e qui è solo riqualificato. L'analisi dei dati ha mostrato punti doppi nelle regioni di raggruppamento, indicando che i vettori sono identici, cioè sono copie l'uno dell'altro con una leggera differenza nel numero delle code. Tali dataset portano all'overtraining quando uno di questi vettori entra nel training e l'altro nel campione di test. In questo caso, uno dei vettori duali dovrebbe essere rimosso! Ma se si guarda al significato dell'input, si comincia a dubitare dell'alto grado di alogicità del MO. Perché non vedo il senso di un tale input, ma SCUKO funziona!


In qualche modo ho deciso: Se vi capita di imbattervi in un input funzionante, non c'è bisogno di capirlo, basta usarlo ed è tutto..... Chiedetemi "Perché funziona?" e vi risponderò "Non lo so" e continuerò a prendere soldi a prescindere :-)

 
Alexander_K:

Al lavoro piacciono gli sciocchi :)))

Prima di tutto vi farà entrare in una routine e in un ordine. Poi il commercio si sistemerà.

 
Maxim Dmitrievsky:

Provare diversi modelli (predittori), per esempio costruire molti modelli e scegliere il migliore, su diversi dati di input trasformati. È come scegliere le password dei conti. Quando non c'è una conoscenza a priori del soggetto e dei modelli.

Fatto a mano.

Quel video di Wapnick in inglese parlava di questo

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Ma manteniamo le cose semplici, supponiamo di aver costruito 10 modelli per lo stesso set di dati, MA con un partizionamento casuale in trend e test. Domanda: come facciamo a scegliere il modello che POTREBBE rappresentare meglio il dataset originale? Questa è una domanda fondamentale e attualmente sto costruendo una teoria intorno ad essa. Finora, tutto sembra logico nella mia teoria, ma non è completa.

Per risolvere questa domanda, ho bisogno di determinare la metrica di generalizzabilità dei modelli risultanti. Ho letto alcune risorse qui e risulta che tali metriche esistono già, ma tutte sovrastimano i valori. Come ho capito non c'è una metodologia efficace unificata per determinare il livello di generalizzazione. Questo è un problema fondamentale nel campo del MO. Il modo in cui Reshetov lo risolve è anche una metrica e per il momento è la soluzione migliore, quando si calcolano specificità e sensibilità del modello, ma è tutto sbagliato. Ma quello che è..... è ENORME!!!!! :-)

 

Non pensavo di suggerire questo, ma comunque...

Ho creato un sistema (indicatore) basato su una rete neurale che costruisce alcuni livelli, funziona abbastanza bene.

La filosofia dell'indicatore è quella di trovare qualche reale ipercomprato/ipervenduto o centimetro.

Dà circa 1-2 segnali a settimana, se il segnale è identificato correttamente funziona con una probabilità vicina al 100%.


Il problema è che non sono esperto di mql e l'indicatore è scritto in R (con l'uso di diverse librerie), non sono in grado di imparare mql.

Se c'è uno sviluppatore qui che è pronto a integrare il codice in mql e visualizzarlo in mt4 sono pronto a discutere e aiutare in futuro.

 
Mihail Marchukajtes:

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Ma manteniamo la cosa semplice, diciamo che abbiamo costruito 10 modelli per lo stesso set di dati, MA con partizionamento casuale in trend e test. Domanda: come facciamo a scegliere il modello che POTREBBE rappresentare meglio il dataset originale? Questa è una domanda fondamentale e attualmente sto costruendo una teoria intorno ad essa. Finora, tutto sembra logico nella mia teoria, ma non è completa.

Per risolvere questa domanda, ho bisogno di determinare la metrica di generalizzabilità dei modelli risultanti. Ho letto alcune risorse qui e risulta che tali metriche esistono già, ma tutte sovrastimano i valori. Come ho capito non c'è una metodologia efficace unificata per determinare il livello di generalizzazione. Questo è un problema fondamentale nel campo del MO. Il modo in cui Reshetov lo risolve è anche una metrica e per il momento è la soluzione migliore, quando si calcolano specificità e sensibilità del modello, ma è tutto sbagliato. Ma quello che è..... è ENORME!!!!! :-)

10 è circa niente, da 2000 modelli. Il partizionamento casuale è presente così com'è, ma cambiano anche i set di dati. Un ultrabook su 1 core conta in 15-20 minuti.

A proposito di jpedictor - stavo curiosando nella versione che mi hai dato e in UPOR non ho visto una macchina nucleare lì... volevo tirarla fuori, vedere come funziona

come mai, compagni

Non so cosa usare se non l'errore di classificazione o il logloss

 
mytarmailS:

Non pensavo di suggerire questo, ma comunque...

Ho creato un sistema (indicatore) basato su una rete neurale che costruisce alcuni livelli, funziona abbastanza bene.

La filosofia dell'indicatore è quella di cercare qualche vero ipercomprato/ipervenduto o centimetro.

Dà circa 1-2 segnali a settimana, se il segnale è identificato correttamente funziona con una probabilità vicina al 100%.


Il problema è che non sono esperto di mql e l'indicatore è scritto in R (con uso di diverse librerie), non sono in grado di imparare mql.

Se c'è uno sviluppatore disposto a integrare il codice in mql e visualizzarlo in mt4 sono pronto a discutere e aiutare in futuro.

No... Non ne ho uno qui :-(

 
Maxim Dmitrievsky:

10 è circa nulla rispetto ai modelli 2000. Il partizionamento casuale è presente così com'è, ma cambiano anche i set di dati. Un ultrabook su 1 core conta in 15-20 minuti.

A proposito di jpedictor - stavo curiosando nella versione che mi hai dato e in UPOR non ho visto una macchina nucleare lì... volevo tirarla fuori, vedere come funziona

come mai, compagni

Non so cosa usare se non l'errore di classificazione o il logloss

è lì al 100%. Ho già iniziato lentamente a rifarlo per me. Ora installare un modello in MKUL è un affare di 5 secondi...

Motivazione: