L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 979

Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Ho giocato con NS e kfold anche con NS ensemble da alglib per la classificazione (softmax), prima impressione:
1. LBFGS si allena molto più velocemente di LM (è irreale aspettare il secondo), anche per un NS senza ensemble.
2. kfold continua a mostrare un grande errore di apprendimento, non sono riuscito a portare la strategia in posizioni ++ nemmeno a 2 falli, per non parlare dei 10. Forse non è molto adatto al mio compito, ma lo proverò di nuovo.
L'ensemble di NS basato sul bagging e sull'algoritmo LBFGS è della stessa qualità dell'ensemble di scaffold, ma allena più lentamente
3. Early halting ensemble con campionamento di convalida (LM è usato da me): non vedo l'ora di impararlo del tutto.
4) La regolazione dei parametri (passo, numero di retrigger) non dà miglioramenti visibili. Aumentando il numero di neuroni di 2-3 volte si ottiene un piccolo miglioramento.
5. In generale, ho avuto l'impressione, che NS sono riqualificati allo stesso modo, ensemble di NS su buggying riqualificato un po 'meno che il comitato dalla foresta.
Tutto questo è stato fatto per poter poi confrontare con xgboost per esempio, che indagherò più tardi.
++ impilare i modelli con me non ha dato più stabilità, si allena allo stesso modo, a volte è possibile migliorare i risultati su un vassoio perché il modello si allena solo più
Ciao, un po' fuori tema. Una volta sul forum ho trovato la tua corrispondenza con un'altra persona. Lì stavate discutendo su quale programma viene usato per fare aiuto da Microsoft. (Quello che appare premendo F1). Per raccogliere lì le mie varianti di codice in forma più conveniente con la ricerca. Per favore, consiglia ancora una volta. (Spero di non essermi sbagliato e di essere stato tu))
Ciao, un po' fuori tema. L'altro giorno ho trovato la sua corrispondenza con un'altra persona sul forum. Lì stavate discutendo su quale programma usate per fare l'aiuto di Microsoft. (Quello che appare quando si preme F1). Per raccogliere lì le mie varianti di codice in forma più conveniente con la ricerca. Per favore, consiglia ancora una volta. (Spero di non essermi sbagliato e di essere stato tu))
Penso che non ero io) non lo ricordo.
Non credo di essere stato io) Non me lo ricordo.
Scusa, scusa)))
Peccato, mi scuso)))
Aiuto & Manuale provalo.
Oh, proprio quello di cui ho bisogno.
Buon pomeriggio ))
Mentre state cercando qui fino ad ora, abbiamo già creato REE - l'elemento russo di svolta.
Questo è il "quinto elemento" - il graal, la pietra filosofale, il cinabro, il sistema del qi, la conquista dei nostri esperti scientifici in algoritmi.
Ora qualsiasi progetto economico-finanziario sarà ottimizzato dall'analisi dei neuroni profondi sulla RPE.
Cioè, in futuro, 1 rublo sarà equiparato a 1 dollaro - attraverso i progressi economici.
siamo sulla strada per un futuro più luminoso!))
Buon pomeriggio ))
....
Devi essere uno della squadra dei geni, vero? Aspetta, le menti ordinarie immature potrebbero non capire)
Ho giocato con NS e kfold anche con NS ensemble da alglib per la classificazione (softmax), prima impressione:
1. LBFGS si allena molto più velocemente di LM (è irreale aspettare il secondo), anche per un NS senza ensemble.
2. kfold continua a mostrare un grande errore di apprendimento, non sono riuscito a portare la strategia in posizioni ++ nemmeno a 2 falli, per non parlare dei 10. Forse non è molto adatto al mio compito, ma lo proverò di nuovo.
L'ensemble di NS basato sul bagging e sull'algoritmo LBFGS è della stessa qualità dell'ensemble di scaffold, ma allena più lentamente
3. Early halting ensemble con campionamento di convalida (LM è usato da me): non vedo l'ora di impararlo del tutto.
4) La regolazione dei parametri (passo, numero di retrigger) non dà miglioramenti visibili. Aumentando il numero di neuroni di 2-3 volte si ottiene un piccolo miglioramento.
5. In generale, ho avuto l'impressione, che NS sono riqualificati allo stesso modo, ensemble di NS su buggying riqualificato un po 'meno che il comitato dalla foresta.
Tutto questo è stato fatto per poter poi confrontare con xgboost per esempio, che indagherò più tardi.
++ impilare i modelli con me non ha dato più stabilità, impara lo stesso, a volte si possono migliorare i risultati su un vassoio perché il modello è semplicemente più allenabile
Vorrei anche sapere il nome di quel giocattolo con cui stai giocando.
Vorrei sapere il nome del giocattolo con cui stai giocando.
Dice - libreria di analisi numerica alglib, portata a MT5. L'ho già usato su e giù, non ci sono problemi in generale, la libreria è buona. Ma senza visualizzazione e modelli più recenti. Sembra che la biblioteca non si stia più sviluppando, c'è silenzio sul loro sito web.