L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3

Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Si potrebbe prendere la strada di buttare fuori gli stessi input. Per ogni colonna da ogni altra, calcola la deviazione media. In questo modo si possono trovare le due colonne più simili, una delle quali può essere scartata. Quale dei due, può essere contato dalla deviazione media di tutte le colonne, ecc.
Visivamente, tutti i pesi sono divisi in due gruppi. Se volete dividerli secondo la significatività/non significatività, allora 5,11,7,1,3,9 spiccano chiaramente, questo insieme penso sia sufficiente.
È la decisione giusta!
Non sapevo che la NS potesse farlo. È una rivelazione per me.
Si scopre che NS può simulare le interazioni.
Ti devo un premio. Grazie!
È vero che i NS non danno un'idea del tipo di modello. Cioè, l'interpretabilità del modello è in discussione.
Più tardi posterò la logica per la creazione del dataset e parlerò del tipo di dipendenza.
Visivamente, tutti i pesi sono divisi in due gruppi. Se volete dividerli secondo la significatività/non significatività, 5,11,7,1,3,9 spiccano chiaramente, questo set è sufficiente credo.
Se siete interessati, provate a rimuovere qualsiasi predittore significativo dal set di dati e ri-addestrate il NS e mostrate l'immagine con i pesi. Penso che ci sarà una sorpresa.
Questo è già fuori dall'incarico. Per far crescere l'argomento.
Se siete interessati, provate a rimuovere un qualsiasi predittore significativo dal set di dati e ad addestrare nuovamente il NS e a visualizzare un'immagine dei pesi. Credo che ci sarà una sorpresa.
Questo è già fuori questione. Per far crescere l'argomento.
La stufa è una parte molto importante dell'interno, nel senso che si dovrebbe sempre ballare per non farlo.
Dr.Trader
Il tuo esempio con NS dice solo che a NS piacevano di più i predittori che hai menzionato e non gli altri. Gli algoritmi che fanno queste cose sono a buon mercato.
Tutto questo andrebbe bene se tale selezione fosse fatta tra i predittori che sono rilevanti, hanno potere predittivo, capacità predittiva per la variabile obiettivo.
Nella mia pratica, ci sono sempre predittori tra un insieme arbitrario di predittori che non hanno alcuna relazione (o molto debole) con la variabile obiettivo. Quindi l'insidia è che, dato un certo numero di predittori di rumore o una selezione casuale dei loro valori, la maggior parte degli algoritmi, incluso NS, non riesce a distinguere i predittori informativi tra i predittori di rumore.
Pertanto, lo "stove-piping" è definito come un'azione che prima ripulisce l'insieme iniziale di predittori dai predittori senza speranza e rumorosi e poi...
PS.
Non ho lavorato con NS, ma le foreste casuali, con una certa quantità di predittori di rumore, tendono a scartare i predittori informativi secondo il loro algoritmo integrato. Di conseguenza, sul rumore, danno prestazioni straordinarie con un errore inferiore al 5%!
SARP
La presenza di predittori di rumore porta necessariamente al retraining del modello con tutto ciò che implica per il mondo reale
La stufa è una parte molto importante dell'interno, nel senso che si dovrebbe sempre ballare intorno ad essa.
Dr.Trader
Il tuo esempio con NS dice solo che a NS piacevano di più i predittori che hai menzionato e non gli altri. Gli algoritmi che fanno queste cose sono a buon mercato.
Tutto questo andrebbe bene se tale selezione fosse fatta tra i predittori che sono rilevanti, hanno potere predittivo, capacità predittiva per la variabile obiettivo.
Nella mia pratica, ci sono sempre predittori tra un insieme arbitrario di predittori che non hanno alcuna relazione (o molto debole) con la variabile obiettivo. Quindi l'insidia è che, dato un certo numero di predittori di rumore o una selezione casuale dei loro valori, la maggior parte degli algoritmi, incluso NS, non riesce a distinguere i predittori informativi tra i predittori di rumore.
Pertanto, lo "stove-piping" è definito come un'azione che prima ripulisce l'insieme iniziale di predittori dai predittori senza speranza e rumorosi e poi...
PS.
Non ho lavorato con NS, ma le foreste casuali, con una certa quantità di predittori di rumore, tendono a scartare i predittori informativi secondo il loro algoritmo integrato. Di conseguenza, sul rumore, danno prestazioni straordinarie con un errore inferiore al 5%!
SARP
La presenza di predittori di rumore porta necessariamente a riqualificare il modello con tutto ciò che comporta per il reale
NS ha fatto molto bene.
Random Forest non potrebbe gestire un tale compito con l'interazione di un insieme di variabili. E la significatività individuale di ogni predittore era intenzionalmente zero.
Sono contento che abbia funzionato :) Grazie per il premio.
Ho provato a rimuovere un ingresso (4 casi) - se rimuovo input_5 o input_9 allora non funziona nient'altro, la neuronica con la stessa configurazione non impara nemmeno ad un errore inferiore al 50%, inizia a dare solo 0 o 1 in un caso più grande.
Se rimuovo input_20 allora tutto va bene, il risultato è corretto. Ma la cosa divertente è l'input_15, se lo rimuovo allora il neurone non si allena nemmeno correttamente, i problemi sono gli stessi di quando rimuovo input_5 o input_9. Non l'ho testato ulteriormente.
Ho allegato il file con il codice R per l'addestramento dei neuroni, se siete interessati. Fondamentalmente è solo un codice leggermente modificato dal registro di Rattle.
Sono contento che abbia funzionato :) Grazie per il premio.
Ho provato a rimuovere un ingresso (4 casi) - se rimuovo input_5 o input_9 allora non funziona nient'altro, la neuronica con la stessa configurazione non impara nemmeno ad un errore inferiore al 50%, inizia a dare solo 0 o 1 in un caso più grande.
Se rimuovo input_20 allora tutto va bene, il risultato è corretto. Ma la cosa divertente è l'input_15, se lo rimuovo allora il neurone non si allena nemmeno correttamente, i problemi sono gli stessi di quando rimuovo input_5 o input_9. Non l'ho testato ulteriormente.
Ho allegato il file con il codice R per l'addestramento dei neuroni, se siete interessati. Fondamentalmente è solo un codice leggermente modificato dal registro di Rattle.
Bene, in generale il processo è chiaro, il neurone cerca semplicemente di adattare i dati disponibili in una certa logica, e se alcuni degli ingressi non portano nuove informazioni, minimizza il loro impatto in modo che non facciano male. È improbabile trovare interrelazioni complesse di input, sono d'accordo.
Inoltre, il pacchetto nnet in R non è esattamente una rete neurale convenzionale. Dalla descrizione, dovrebbe usare l'apprendimento di secondo ordine. Di solito nei neuroni i pesi cambiano in base alle derivate, ma qui cambiano in base alle derivate delle derivate. E durante l'addestramento viene costruita una sorta di matrice "hessian" che memorizza dati importanti su tutti i pesi per tutti gli esempi di addestramento in una sola volta. Dicono che è molto figo, questo pacchetto deve essere forte.https://ru.wikipedia.org/wiki/Алгоритм_Бройдена_-_Флетчера_-_Гольдфарба_-_Шанно - Non l'ho capito, ma questo è se qualcuno è un matematico allora capirlo.