L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 608

 
Ildottor Trader:

suona proprio come l'ensemble di NS

se non mi sbaglio

 
Ildottor Trader:

Poi scegliamo i parametri del modello (funzione di attivazione, numero di strati e loro dimensioni, ecc.), ogni volta facciamo tutti questi passi (allenare 5 modelli, prevedere 5 pezzi unici per ogni modello, combinarli, R2), ottenendo una stima sempre migliore.

Sono centinaia di reti da costruire e formare! Ma fino ad ora non vedo nessun'altra opzione (

 
Devo andare a letto e finire i miei libri questa settimana:

Penso che se gli scrivi e gli offri mille sterline all'ora, puoi prendere lezioni individuali da Perchik, Perepelkin costerà un po' di più, ma ne vale la pena


Amico, fai sul serio con Perchik)?

Pagare mille dollari a un autista assunto.

Non so niente dell'altro... e non voglio saperlo).

Comunque, è tutto interessante, ma andrò a letto e finirò i miei libri questa settimana.

 
Maxim Dmitrievsky:

sembra solo un insieme del NS

se non mi sbaglio.

Alla fine otterrete un insieme normale, sì. Ma il risultato sarà molto migliore di "allenare solo 5 neuroni su tutto il foglio di calcolo".


Vizard_:

Beh sì, opzione standard, anche se lo preferisco senza kv, ho già scritto...
Doc, prova a fissare la ripidità con diversi parametri e prova.

Ho LibreOffice, quella neuronica non ha funzionato in esso.


elibrario:

Sono centinaia di reti da costruire e formare! Ma finora non c'è nessun'altra opzione in vista (

Ecco perché mi piace il pacchetto gbm in R per esempio, la sua velocità di apprendimento è ordini di grandezza più veloce. Non è neuronica, è un'impalcatura e un potenziamento.

È anche interessante che k-fold crossvalidation ha funzionato bene per me anche con un piccolo numero di epoche di allenamento della rete neurale. Il numero di epoche era uno dei parametri di allenamento che ho selezionato. Piccolo numero di epoche = apprendimento veloce, questo è un vantaggio. Ma la possibile precisione del modello è inferiore, questo è un meno.

 
Ildottor Trader:

Ti suggerisco di imparare la validazione incrociata k-fold. Ho visto alcuni modi diversi, questo funziona bene -.

...


C'è anche una sfumatura che i pesi iniziali di neuronka sono impostati in modo casuale, e il risultato finale della formazione può dipendere molto da esso, anche per la foresta e altri modelli.
Ogni volta prima di addestrare il modello ho impostato il valore del generatore di numeri casuali allo stesso stato:

set.seed(12345)

In questo modo ottengo risultati riproducibili e stabilità. Il valore del grano gpsch può anche essere preso al posto di 12345, il che, anche se suona piuttosto divertente, a volte è necessario.

 
Ildottor Trader:

Un'altra sfumatura è che i pesi iniziali di neuronka sono impostati in modo casuale, e può dipendere molto dal risultato finale della formazione, anche per la foresta e altri modelli.
Ogni volta prima di addestrare un modello ho impostato il valore del generatore di numeri casuali allo stesso stato:

In questo modo ottengo ripetibilità e stabilità. Potete anche regolare il valore del grano gpsh invece di 12345, il che suona abbastanza divertente, ma a volte è necessario.



Se vuoi farti un'idea, dovresti buttare la tua rete nel cestino, dato che reagisce ai valori gpsh in questo modo. Una rete normale funziona e impara a qualsiasi valore iniziale, anche a valori zero.


 
Sergey Chalyshev:

Se si dà a quel neurone un sacco di neuroni e strati e infinite epoche di addestramento, non ha problemi ad addestrarsi alla precisione desiderata con qualsiasi grano iniziale.

Io, per esempio, sto imparando a prevedere l'aumento del prezzo per barra. Il problema è che c'è molto rumore nei prezzi (prezzo reale +- alcuni spostamenti casuali), ed è impossibile prevedere il rumore. Ma possiamo usare la crossvalidazione per scegliere i parametri in cui il modello non ricorderà ancora il rumore, ma in qualche modo compilerà quei dati e farà previsioni corrette almeno in una piccola percentuale di casi. E con alcuni valori iniziali dei pesi il modello inizia immediatamente a ricordare il rumore invece di cercare di generalizzare questi dati, è male, allora si dovrebbe cercare un altro grano iniziale per l'inizializzazione dei pesi.

 
Sergey Chalyshev:


Butta la tua rete nella spazzatura se reagisce così tanto ai valori gpsh. Una rete normale funziona e impara a qualsiasi valore iniziale, anche a zero.



È solo un'altra spiegazione del fatto che non si possono usare metodi statici in sistemi dinamici.

Questa è solo un'altra spiegazione del fatto che non si dovrebbero usare metodi statici per sistemi dinamici.

 

Bene, ora guardiamo l'architettura per l'apprendimento su linee temporali piuttosto che immagini di SEAL, opzione uno:

 

Opzione 2:

Voglio dire, combinare NS e automi sembra una buona soluzione, con circuiti positivi e negativi, ma chi e come lo implementerà è un'altra domanda. Per me personalmente, questo approccio è il più ovvio