Discussione sull’articolo "Reti neurali economiche - Collega NeuroPro con MetaTrader 5" - pagina 3
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Per quanto riguarda l'articolo in sé, non NS in generale. Qual è l'inghippo? Il numero di coefficienti da applicare è paragonabile alla quantità di storia.
Prendiamo il numero di coefficienti pari alla quantità di storia. Credo che l'aggiustamento sarà perfetto. Non avrà un solo trade perdente e sfrutterà al massimo la storia.
Se affrontiamo la costruzione del NS come una selezione di un numero selvaggio di coefficienti, non abbiamo bisogno di una cosa così buona.
C'è un'altra utilità: la compressione delle informazioni con la perdita. C'è stata molta storia, ci sono meno coefficienti che descrivono approssimativamente la storia. D'altra parte, esistono molti algoritmi di compressione, anche senza perdita, con prestazioni molto migliori.
Per quanto riguarda l'articolo in sé, non NS in generale. Qual è l'inghippo? Il numero di coefficienti da applicare è paragonabile alla quantità di storia.
Prendiamo il numero di coefficienti pari alla quantità di storia. Credo che l'aggiustamento sarà perfetto. Non avrà un solo trade perdente e sfrutterà al massimo la storia.
Se si affronta la costruzione di NS come una selezione di un numero selvaggio di coefficienti, che diavolo di bisogno c'è di una cosa così buona.
Probabilmente non hai letto (attentamente) l'articolo. Il numero di ingressi è di 24 (timeframe orario), i neuroni in uno strato - 20, gli strati - 3.
L'esempio di storia è di 5k barre. Impostando 10k barre, il numero di coefficienti rimarrà lo stesso.
Se non capite di cosa stiamo parlando, allora non ne avete davvero bisogno.
Probabilmente non avete letto (attentamente) l'articolo. Il numero di ingressi è 24 (timeframe orario), i neuroni in uno strato - 20, gli strati - 3.
E l'esempio di storia è di 5k barre. Impostando 10k barre, il numero di coefficienti rimarrà lo stesso.
Se non capite di cosa stiamo parlando, non ne avete davvero bisogno.
Potete ingannare voi stessi quanto volete!
Guardate il codice sorgente e contate il numero di coefficienti aggiustati. Bla, bla, bla nella descrizione di NS, ma l'essenza è il codice sorgente.
Raddoppiate la quantità di storia e osservate il crollo dei coefficienti. E così via ad ogni aumento.
La simulazione dell'orgasmo riportata nell'articolo è il risultato mostrato. E il fatto che sia ottenuto in modo orribile non è quello che nessuno sta dicendo.
Cerchiamo di essere semplici. Vi darò il codice sorgente di un consulente con mille coefficienti. E vi darò un pezzo di storia comparabile. Non dirò che si tratta di NS o di qualcos'altro. Solo il sorgente e un pezzo di storia.
Cambierà anche lei idea su questa storia quando le dirò che si tratta di NS o di metodo scientifico avanzato? Guardate la linea di fondo.
Prendiamo l'unicum dimeon. Il suo Expert Advisor contiene non più di una dozzina di coefficienti regolabili. La quantità di storia è migliaia di volte superiore a quella che utilizziamo per regolare questi coefficienti. Quindi i NS incorporati nella testa di dimeon possono talvolta produrre grandi risultati. Ecco perché non si inveisce contro tutti i NS. Ma l'articolo sta fuorviando il lettore.
D'altra parte, il nostro pipsario figo non usa affatto il principio neurale per costruire un algoritmo di trading. Non usa il principio più stupido dell'addizione e della moltiplicazione, come nei NS. Forse, questa è la ragione dell'eclatante differenza tra i suoi risultati e quelli dei classici sotto forma di NS.
Nome divertente: ENCOG - apprendimento automatico... Beh, è sexy.
Gli strumenti qui elencati sono solo una parte dell'apprendimento automatico.
Ridere senza motivo è segno di stupidità © Detto popolare
Per coloro che sono particolarmente dotati nell'apprendimento automatico:
Ridere senza motivo è segno di stupidità © Detto popolare
Per gli esperti di apprendimento automatico particolarmente dotati:
1. Non ci sono problemi con CRAN, o meglio, non ce ne sono affatto. Più di due anni tutti in codobase.
2. La quantità parla della diversità degli approcci e del rapido sviluppo. La qualità dei pacchetti in CRAN è eccellente.
3. WEKA è uno di.... Se parliamo della scelta di pacchetti di machine learning che possono essere utilizzati nel trading, allora caret. E per iniziare prendiamo Rattle. Se si parte da zero, lo si può mettere in funzione in circa 15 minuti. Sopra ho pubblicato i risultati del confronto tra NS e le foreste casuali. NS fornisce risultati più che modesti. Ho anche scritto un articolo. Provate Rattle. Prendete 2-3 pacchetti al massimo e sarete soddisfatti. E abbandonate per sempre le NS. Per cominciare, posso consigliare un altro allegato.
2. La quantità dimostra la diversità degli approcci e il rapido sviluppo. La qualità dei pacchetti in CRAN è eccellente.
Al contrario, alcuni pacchetti duplicano semplicemente i metodi di altri pacchetti. Per esempio, tutti gli SVM sono solo dei port dalla stessa libreria taiwanese libsvm. Quindi non fa alcuna differenza se SVM è incorporato in Cran, Weka, Encog o qualsiasi altro pacchetto. I risultati saranno identici con le stesse impostazioni.
Se parliamo della scelta dei pacchetti di apprendimento automatico che possono essere utilizzati nel trading, allora attenzione.
Ancora una volta, si dovrebbero scegliere strumenti specifici per compiti specifici. Trading è solo un nome generalizzato per molte strategie e tattiche del mercato azionario. Per questo motivo è impossibile racchiudere tutto sotto un unico ombrello.
Ho pubblicato i risultati del confronto tra NS e foreste casuali qui sopra.
Non si tratta di risultati, ma di stronzate, come la temperatura media dell'ospedale adattata al campione di allenamento.
I risultati si ottengono quando, al minimo, il campione viene diviso in campioni di addestramento e di test e, al massimo, viene applicata la crossvalidazione.
Penso che difenderò il NS. Solo perché i legni casuali sono diventati improvvisamente di moda, non significa che il NS sia peggiore. Sono le stesse uova, solo di profilo. Per fare un confronto più o meno adeguato, prendete un comitato di maglie, attivate il bousting e otterrete lo stesso bosco casuale. I NS sono noti per consentire l'implementazione di quasi tutti gli altri algoritmi.
In ogni caso, il 99% del successo non sta nello strumento, ma nella scelta e nella preparazione dei dati.
Penso che difenderò la NS. Solo perché le foreste casuali sono diventate improvvisamente di moda, non significa che NS sia peggiore.
Random Forest non è un fenomeno di moda, ma uno strumento che può dare risultati accettabili al primo tentativo. Questo classificatore viene utilizzato sia dai principianti che dagli utenti esperti. I principianti lo usano come strumento di base perché il metodo è molto semplice. Gli utenti più esperti iniziano a risolvere i problemi con la radiofrequenza per capire in che direzione muoversi.
In ogni caso, il 99% del successo non sta nello strumento, ma nella scelta e nella preparazione dei dati.
Non si può fare un grande affare per un grande affare © People's saying
Sarebbe interessante vedere come risolverete il problema della regressione multipla utilizzando un classificatore binario?
Non si tratta di risultati, ma di qualche stronzata, come la temperatura media dell'ospedale adattata al campione di addestramento.
I risultati si hanno quando, come minimo, il campione viene diviso in campioni di addestramento e campioni di prova e, al massimo, viene applicata la convalida incrociata.
Non mi occupo di stronzate.
Prova.
I risultati pubblicati si riferiscono sempre a dati di "formazione fuori campione". In Rattle si procede come segue:
1. l'insieme originale viene diviso in tre parti: 70-15-15%
2. l'addestramento viene eseguito sulla parte del 70%, che viene chiamata addestramento. Qui c'è una sfumatura molto significativa. Da questo 70%, circa 2/3 dei dati di addestramento vengono selezionati in modo casuale, ossia = 70% * 2/3. L'addestramento viene effettuato su questi dati. Le informazioni sulle prestazioni del modello si ottengono sul restante 70% * 1/3 dei dati del campione di addestramento, che ovviamente è anch'esso un insieme casuale di righe. Questa parte è chiamata OOB - out of bag. Cioè, anche se formalmente è stato utilizzato lo stesso set di dati per l'addestramento e la valutazione, sono state prese righe diverse da esso per l'addestramento e la valutazione.
Dopodiché si può passare alla scheda Evaluate (Valutazione), dove si può utilizzare il modello addestrato sul restante 15% e confrontarlo con OOB. Se i risultati sono gli stessi, c'è speranza. Ne consegue che, sebbene Rattle sia uno strumento per testare le idee, la qualità di questi test è molto più alta di quella dell'articolo in discussione (che l'autore si scusi).
E personalmente per la vostra dolcezza: il risultato ottenuto nel mio articolo e in questo articolo non può essere attendibile, perché non c'è alcuna prova di sovrallenamento (overfitting) del modello, e i tre set di test al di fuori del campione di addestramento da me elencati non sono una tale prova. In altre parole, abbiamo bisogno di criteri che siano soddisfatti dall'insieme di variabili iniziali, nel senso che il modello che utilizza questo insieme di variabili può essere testato secondo lo schema di cui sopra e i risultati di tale test possono essere attendibili.