L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1112

 

Per il ML, i dati sono molto più importanti di un buon modello.

Quindi, può essere utile, lo condivido:

Raccolta di tick da MetaTrader 5 direttamente nel database MySQL tramite libmysql in tempo reale

MT5_ticks_to_MySQL

La storia stessa può essere trovata qui:

http://ticks.alpari.org

 
itslek:

Per il ML, i dati sono molto più importanti di un buon modello.

Quindi, può essere utile, lo condivido:

Raccolta di tick da MetaTrader 5 direttamente nel database MySQL tramite libmysql in tempo reale

MT5_ticks_to_MySQL

La storia stessa può essere trovata qui:

http://ticks.alpari.org

In un normale file CSV il compito viene risolto con lo stesso successo e velocità. E, inoltre, non devi preoccuparti proprio di niente.

 
Yuriy Asaulenko:

Il compito si risolve in un normale file CSV altrettanto rapidamente e con lo stesso successo. E, inoltre, non devi preoccuparti proprio di niente.

eh, non capire e commentare subito)

Sono d'accordo, è più conveniente caricare la cronologia in CSV. Ma per lavorare online con modelli già fatti...

 
itslek:

eh, non capire e commentare subito)

Sono d'accordo, è più conveniente caricare la cronologia in CSV. Ma per lavorare online con modelli già pronti...

Online così tante zecche non hanno bisogno. E si inseriscono nella memoria.

E non online, non hai bisogno di molta velocità per esportare. Si importa da CSV a database manualmente.

 
Vizard_:

+1

Sono d'accordo che i dati sono più importanti del modello, ma anche il metodo di costruzione è importante. In questo caso lo considero 50/50.

È importante che il modello dia più del 50% di modelli generalizzati nelle ottimizzazioni ripetute. Significa che 5 o più modelli su 10 ottimizzazioni dovrebbero essere generalizzati a un livello sufficiente. Perché è così? Perché quando si seleziona tra 10 modelli la probabilità di selezionare quello funzionante è più alta. A cosa serve l'algoritmo se produce solo 2 modelli generalizzati su 10 ottimizzazioni? La probabilità che l'Expert Advisor scelga il modello funzionante è molto bassa e quindi anche questo algoritmo è di scarsa utilità.

È importante che i dati siano la causa della funzione obiettivo, almeno il 20% o più. Se c'è una ragione nei dati di input, la responsabilità di trovarla è dell'algoritmo di ottimizzazione.


Sono ancora interessato a controllare i miei risultati su altri algoritmi e capire cosa è il successo. La disponibilità di dati o ottimizzatore Reshetova, che è tutto odiato qui, ma per farlo sarà necessario testare nella vita reale, e tenendo conto del fatto che la gente qui avaro. PERSONALIZZATO........

Se qualcun altro sta facendo questa domanda, penso di poter rispondere come: Preparo i dati. Tu addestri la tua IA, dopo l'addestramento testiamo il modello sui feedback (preferibilmente nel mondo reale), se l'EA funziona e siamo convinti che il modello funziona, significa che il tuo algoritmo di ottimizzazione funziona (non ne ho bisogno) e quindi dovremmo concentrarci sulla ricerca dei dati di input. Se non riesco a ottenere un modello funzionante con i miei dati, allora devo mettere a punto l'algoritmo. Penso che i principianti saranno interessati e nel frattempo mi assicurerò anch'io del mio successo. I dati o la disponibilità di un potente ottimizzatore Reshetov.

So.... che accetta questa sfida?????

 
Mihail Marchukajtes:

Sono d'accordo che i dati sono più importanti del modello, ma anche il metodo di costruzione è importante. In questo caso lo considero 50/50.

È importante che il modello dia più del 50% di modelli generalizzati nelle ottimizzazioni ripetute. Cioè 5 o più modelli su 10 ottimizzazioni dovrebbero essere generalizzati a un livello sufficiente. Perché è così? Perché quando si seleziona tra 10 modelli la probabilità di selezionare quello funzionante è più alta. A cosa serve l'algoritmo se produce solo 2 modelli generalizzati su 10 ottimizzazioni? La probabilità che l'Expert Advisor scelga il modello funzionante è molto bassa e quindi anche questo algoritmo è di scarsa utilità.

È importante che i dati siano la causa della funzione obiettivo, almeno il 20% o più. Se c'è una ragione nei dati di input, la responsabilità di trovarla è dell'algoritmo di ottimizzazione.


Sono ancora interessato a controllare i miei risultati su altri algoritmi e capire cosa è il successo. La disponibilità di dati o ottimizzatore Reshetova, che è tutto odiato qui, ma per farlo sarà necessario testare nella vita reale, e tenendo conto del fatto che la gente qui avaro. PERSONALIZZATO........

Se qualcun altro sta facendo questa domanda, penso di poter rispondere come: Preparo i dati. Tu addestri la tua IA, dopo l'addestramento testiamo il modello sui feedback (preferibilmente nel mondo reale), se l'EA funziona e siamo convinti che il modello funziona, significa che il tuo algoritmo di ottimizzazione funziona (non ne ho bisogno) e quindi dovremmo concentrarci sulla ricerca dei dati di input. Se non riesco a ottenere un modello funzionante con i miei dati, allora devo mettere a punto l'algoritmo. Penso che i principianti saranno interessati e nel frattempo mi assicurerò anch'io del mio successo. I dati o la disponibilità di un potente ottimizzatore Reshetov.

So.... che accetta questa sfida?????

Gli obiettivi sono già nei dati? Quale metrica?).

Se si riduce la sfida a una semplice forma di competizione di apprendimento automatico, è possibile attirare non solo i commercianti)

 
itslek:

I tag nei dati sono già impostati? Qual è la metrica?).

Se si riduce il compito a una semplice forma di competizione di apprendimento automatico, si può attrarre più che semplici commercianti)

Sì, i dati dell'obiettivo saranno già presenti. Stiamo parlando di modelli di classificazione. Qui il problema è diverso, come possiamo controllare questi modelli ottenuti nel vostro sistema???? Preferibilmente su un vero...

 
Mihail Marchukajtes:

Sì, i dati dell'obiettivo saranno già presenti. Stiamo parlando dei modelli di classificazione. Il problema qui è un altro, come potete controllare questi modelli ottenuti nei vostri sistemi???? Preferibilmente sul reale...

Per cominciare controlla almeno il campionamento ritardato. Supponiamo che lei dia i dati per il 2012-2016. Test del 2017. Il 2018 vi lascia per il controllo finale (in modo che non ci sia stato alcun aggiustamento).

Aspetta con il reale) non condividere la pelle non ucciso l'orso ;) prima è necessario fare un modello che potrebbe almeno passare la convalida, e poi provare a rotolare questo elefante nel prodotto. Sono due compiti completamente diversi.

 
Non so cosafarne:

Per cominciare, controlla almeno un campione in ritardo. Supponiamo che lei fornisca dati per il 2012-2016. Test del 2017. Tieni il 2018 per il test finale (in modo che non ci sia un aggiustamento).

Aspetta con il reale) non dividere la pelle non ucciso l'orso ;)

Quindi come controllerò il modello? se faccio la convalida in MT tester. Dopo l'ottimizzazione saremo in grado di caricare il modello in MT4?

 
Mihail Marchukajtes:

Quindi come faccio a controllare il modello? se lo controllo nel tester MT. Dopo l'ottimizzazione saremo in grado di caricare il modello in MT4?

E il mio punto è questo. In primo luogo, impostate il problema nel vuoto. con la vostra metrica.


Se volete eseguirlo nel tester con il trawl e tutte le altre chicche:

Fornire i dati in .csv con il targeting (capisco che hai questa classificazione binaria). poi addestrare il modello e prevedere il targeting. il risultato viene caricato come un elenco di risposte del modello nello stesso tester ed eseguito. Ma farlo per ogni modello è un'altra variante di adattamento, è meglio pensare alle metriche o all'obiettivo. E nel tester dovremmo eseguire solo l'ultima variante.

Per il tempo reale è una seccatura separata e non tutti i modelli possono essere avvolti in un dll.

Motivazione: