Grazie per l'articolo. "È molto da assimilare tutto in una volta.
Domanda per l'autore. Per quanto riguarda la costruzione di un Expert Advisor, il numero di coefficienti da regolare con la logica della moltiplicazione e della somma è anche qui fuori scala?
Grazie per l'articolo. "È molto da assimilare tutto in una volta.
Domanda per l'autore. Per quanto riguarda la costruzione di un Expert Advisor, il numero di coefficienti da regolare con la logica della moltiplicazione e della somma è anche qui fuori scala?
Non capisco la domanda. Di cosa stai parlando?
CONGRATULAZIONI!
Articolo molto informativo e di qualità!
COMPLIMENTI!
Articolo molto informativo e di qualità!
Saluti.
Possiamo utilizzare questo esempio per comprendere la clusterizzazione degli input e la corrispondenza dei cluster con il cluster di destinazione e altri problemi di classificazione.
Finirò il calcolo e lo pubblicherò
Buona fortuna
Saluti.
Possiamo utilizzare questo esempio per comprendere il raggruppamento degli input e la corrispondenza dei cluster con l'obiettivo e altri problemi di classificazione.
Finirò il calcolo e lo posterò
Buona fortuna.
vlad1949:
...
- Indicatore i_SAE.mq4, inserirlo nella cartella ~/MQL4/Indicatori/
- Expert Advisor e_SAE.mq4, inserirlo nella cartella ~/MQL4/Experts/.
- Libreria mt4Rb7.dll, collocata nella cartella ~/MQL4/Libraries/.
- File di intestazione mt4Rb7.mqh, inserirlo nella cartella ~/MQL4/Include/. La libreria e il file di intestazione sono stati sviluppati e forniti da una persona gentile, Bernd Kreuss. Nel nome ho aggiunto l'indice dell'ultima modifica (b7). Quando ci sono molte versioni (come la mia) con gli stessi nomi, ci sono errori che richiedono molto tempo per essere risolti.
...
Molto interessante. Mi piacerebbe confrontare le opzioni. Ho cercato di capire il clustering: una quantità di strumenti spaventosa.
È vero. Ma l'importante non è tanto il clustering in sé, quanto la determinazione del numero ottimale di cluster in cui possiamo (dovremmo) dividere il nostro insieme.
C'è molto da scrivere. Forse lo finirò domani.
Buona fortuna
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Accetti la politica del sito e le condizioni d’uso
Il nuovo articolo Reti neurali di terza generazione: Reti profonde è stato pubblicato:
Questo articolo è dedicato a una nuova direzione nell'apprendimento automatico: deep learning o, per essere precisi, reti neurali profonde. Questa è una breve rassegna delle reti neurali di seconda generazione, l'architettura delle loro connessioni e dei principali tipi, metodi e regole di apprendimento e i loro principali svantaggi. Segue la storia dello sviluppo della rete neurale di terza generazione, i loro principali tipi, peculiarità e metodi di allenamento. Sono condotti esperimenti pratici sulla costruzione e l'addestramento di una rete neurale profonda avviata dai pesi di un autoencoder impilato con dati reali. Tutte le fasi, dalla selezione dei dati di input alla derivazione metrica sono discusse in dettaglio. L'ultima parte dell'articolo contiene un'implementazione software di una rete neurale profonda in un Expert Advisor con un indicatore integrato basato su MQL4 / R.
A differenza della regola di apprendimento di Hebb, in cui un certo numero di neuroni di uscita può attivarsi contemporaneamente, qui i neuroni di uscita competono l'uno contro l'altro. Un neurone di uscita con valore massimo di somma pesata è il "vincitore" e "il vincitore prende tutto". Le uscite di altri neuroni di uscita sono impostate su inattive. Durante l'apprendimento, solo i pesi del "vincitore" vengono modificati mirando aumentando la vicinanza all'istanza di input corrente.
Ci sono molti algoritmi di apprendimento che affrontano diversi problemi. La backpropagation, uno degli algoritmi moderni più efficienti, è uno di questi. Il principio alla base è che il cambiamento di peso sinaptico avviene tenendo conto del gradiente locale della funzione di errore.
La differenza tra le risposte reali e corrette di una rete neurale valutata a livello di output viene riprodotta - verso il flusso di segnali (Fig.5). In questo modo ogni neurone può definire il contributo del suo peso in rapporto all'errore cumulativo della rete. La regola di apprendimento più semplice è il metodo di discesa più ripido, cioè la variazione del peso sinaptico proporzionale al suo contributo all'errore cumulativo.
Autore: Vladimir Perervenko