L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 631

Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Avete tre neuroni all'ingresso del secondo strato processati dalla sigmoide? Come si regolano i pesi sul secondo strato, che vanno da -1 a 1 in passi di 0,1 per esempio.
Nella mia rete, dopo l'elaborazione del secondo strato , il numero di accordi è sceso e i miei risultati non sono migliorati molto. Era diverso quando ho semplicemente montato un perceptron con 9 ingressi e un neurone di uscita e poi ho preso un altro perceptron indipendente e l'ho montato di nuovo con le impostazioni del primo salvato, ecc.
Il 4° neurone elabora i risultati dei primi tre, cioè + 3 pesi in più
Sì, da -1 a 1 in incrementi di 0,1, ma non sigmoide ma tangente
Ho provato a fare uno strato intermedio con gli stessi pesi del primo di ingresso, il numero di scambi è sceso e la qualità è notevolmente migliorata, ma ottimizzare 9 pesi extra è troppo :)
La tua versione sembra buona... Stavo pensando di addestrare NS convenzionali sui risultati dell'ottimizzazione... Dovrò provarla. Ma mi sto annoiando con questo approccio
Il 4° neurone elabora i risultati dei primi tre, cioè + 3 pesi in più
Ora ho provato a fare uno strato intermedio con gli stessi pesi del primo strato di input - il numero di scambi è sceso e la qualità è anche migliorata, ma ottimizzare un ulteriore 9 pesi è già troppo :)
La tua versione sembra buona... Stavo pensando di addestrare NS convenzionali sui risultati dell'ottimizzazione... Dovrò provarla. Ma mi sto annoiando con questo approccio.
La mia impressione è che dovrei fare un indicatore sul primo strato e vedere visivamente quali pesi dovrebbero essere applicati sul secondo strato. Oppure elaborarlo con il sigmoide (allora si ottengono i valori da circa 0,2 a 0,9, approssimativamente) e poi si possono prendere piccoli pesi e non c'è bisogno di una grande gamma di essi.
In più il peso aggiuntivo senza legarsi all'ingresso è solo il peso del bias, quello che Dr.Trader mi ha suggerito. Il peso aggiuntivo di bias migliora un po' i risultati, per esempio 1.7 con bias diventa 1.8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
Ho l'impressione che tu debba fare un indicatore sul primo strato e vedere visivamente quali pesi applicare sul secondo strato. O elaborarlo con la sigmoide (poi si ottengono valori da 0,2 a 0,9 o giù di lì) e poi si possono prendere piccoli pesi e non c'è bisogno di una grande gamma di pesi.
Inoltre il peso aggiuntivo senza legarsi all'ingresso è solo un peso, quello che mi ha suggerito il Dr.Trader. Per esempio è 1,7 con bias e ora è 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
è difficile fare qualcosa di puramente improvvisato :) ma il problema principale rimane - la riqualificazione
Beh, 5-10 neuroni da riqualificare non sono affatto un problema). Sembra essere da qualche parte così con te.
C'era un esemplare interessante sul computer. Hai un pezzo di discorso. Un rumore viene generato e sovrapposto a questo discorso. Poi viene insegnato un semplice MLP, e si sente di nuovo un discorso quasi puro.
Sono rimasto completamente stranito da questo, anche se c'è una descrizione di un modificatore di rumore simile in Haikin come esempio.
Beh, 5-10 neuroni da riqualificare non sono affatto un problema). Sembra essere da qualche parte così con te.
C'era un esemplare interessante sul computer. Hai un pezzo di discorso. Un rumore viene generato e sovrapposto a questo discorso. Poi viene insegnato un semplice MLP, e si sente di nuovo un discorso quasi puro.
Ne sono rimasto davvero sbalordito, anche se è descritto in Haikin come esempio.
Alcuni rifiuti sembrano essere stati persi, vorrei aver avuto il tempo di partecipare.
L'altro, quello in cui rispondevo al signor Terenyevsky, è stato cancellato. Ho risposto a Terentiev sui test delle serie temporali e ho detto che gli scrittori locali sono dilettanti perché non capiscono che con una precisione del 70-80% il rapporto Sharp sarà superiore a 20, e non hanno senso.
ha cancellato il mio messaggio in cui rispondevo al signor Terenyv. Terentiev sui test delle serie temporali e ha detto che gli scrittori di articoli locali sono solo dilettanti perché non capiscono che con il 70-80% di precisione Sharp ratio sarà superiore a 20, e hanno qualche sciocchezza
ah, ok )
Mi sono interrogato sul re-information lerning, così ho trovato un articolo interessante e sto cercando di comprarlo e forse aggiungerlo al bot.
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
Sto cercando di comprare il bot, ma è un po' stupido, impara a comprare solo alla fine per qualche motivo.