"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 35
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Idealmente, dovrebbe risuonare (è amichevole) con il logo di metaqvot
MetaPerceptive ;) (Percezione percipiente)
c'è anche un'idea per il logo :) -- Il nome del robot che annusa un fiore è un gioco sull'ambiguità della parola Perceptive. Più il robot non è comune, meglio è :)
________
semplicemente e con gusto Neural. o TheNeural :)
________
Neural Nets eXtension (NNX).
________
Neural Nets Xpert (NNXpert) :))))
________
Toolkit per reti neurali (NNToolkit)
________
Strumenti per reti neurali (NNTools)
Sono a favore di Neural Nets eXtension (NNX).
specialmente questa parte di Neural NetseXtension (NNX), perché la incasineremo per bene.
Non è meglio trasformare in Neural Universal eXtension (NUX) quasi LINUX
Se la domanda è per me, nella letteratura, le reti che ho descritto sono chiamate reti neurali gerarchiche.
EMNIP, il cognitron rappresenta qualcosa di simile.
Aspettando il seguito :)
Sì, dovremmo fare una votazione o lanciare delle opzioni a Metakvotam dopo.
Perché la fretta, in linea di principio dovremmo anche considerare nel nome del prodotto la possibilità di scambiare con altri pacchetti di neuro e la generazione di un consigliere finale pronto.
Il prodotto è più di NN. Nel processo, può svilupparsi in qualcos'altro di utile.
Il prodotto è più grande di NN.
Capito. Ma legato specificamente a NN. Sarà legato in modo più accurato.
Ho paura che otterremo qualcosa come "AWVREMGVTWNN" :) La cosa principale è trasmettere l'essenza, le sfumature non sono così importanti.
Informazioni su
-Discesa del gradiente coniugato
-BFGS
Metodo del gradiente coniugato (wiki)
-BFGS (wiki)
Lezione 3. Il modello HMAX
Per capire i dettagli della trasformazione biologica dell'informazione visiva guarderemo il popolare modello di riconoscimento di oggetti HMAX ("Hierarchical Model and X"). Questo modello è stato creato dai ricercatori del MIT guidati da Tomaso Poggio alla fine degli anni '90. La descrizione e il codice del modello possono essere trovati qui
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
Con alcune leggere modifiche, HMAX fa un lavoro molto migliore delle reti neurali classiche nel riconoscimento dei volti. Questa immagine descrive abbastanza bene il modello:
Il primo strato del modello (S1) consiste in filtri di sezioni corte e diritte di quattro diverse inclinazioni (verticale, orizzontale, 45 gradi di inclinazione e 135 gradi di inclinazione - mostrati in rosso, giallo, verde e blu), ciascuno di 16 dimensioni, in modo che ogni sezione dell'immagine di input sia "coperta" da 4 x 16 filtri. Ogni filtro è un neurone con un'uscita uguale alla somma dei pixel dell'immagine in qualche area dell'immagine moltiplicata per i pesi d'ingresso di questo neurone. Questi pesi di ingresso sono descritti dalla funzione Gabor. Ecco un esempio di questi filtri (pesi):
Il secondo strato del modello (C1) consiste di neuroni complessi. Ogni neurone complesso seleziona la massima attivazione (output) dei neuroni S1 che filtrano sezioni della stessa pendenza in diverse parti dell'immagine e in due dimensioni adiacenti. Così, questo neurone complesso ha l'invarianza alla posizione e alla dimensione dei segmenti elementari, che è spiegata di seguito:
I neuroni del terzo strato del modello (S2) prendono input dai neuroni C1. Come risultato si ottengono filtri di forme più complesse (denominati P1, P2,...) che sono composti da segmenti elementari. Per ogni figura abbiamo 4 set di filtri di diverse dimensioni. I filtri all'interno di ogni set differiscono nella loro posizione spaziale ("guardare" parti diverse dell'immagine).
I neuroni del quarto strato del modello (C2) scelgono l'attivazione massima dei neuroni S2 che stanno filtrando la stessa figura ma di diverse dimensioni e disposizione spaziale. Il risultato sono filtri di forme più complesse che sono invarianti alla loro posizione e dimensione.
Riferimenti:
T. Serre, "Robust object recognition with cortex-like mechanisms", IEEE Trans. su Pattern, agosto 2006.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf