"New Neural" è un progetto di motore di rete neurale Open Source per la piattaforma MetaTrader 5. - pagina 35

 
si abbozza un costruttore e poi si vedrà dalla composizione come chiamarlo...
 
Mischek:
Idealmente, dovrebbe risuonare (è amichevole) con il logo di metaqvot

MetaPerceptive ;) (Percezione percipiente)

c'è anche un'idea per il logo :) -- Il nome del robot che annusa un fiore è un gioco sull'ambiguità della parola Perceptive. Più il robot non è comune, meglio è :)

________

semplicemente e con gusto Neural. o TheNeural :)

________

Neural Nets eXtension (NNX).

________

Neural Nets Xpert (NNXpert) :))))

________

Toolkit per reti neurali (NNToolkit)

________

Strumenti per reti neurali (NNTools)

 
TheXpert:

Sono a favore di Neural Nets eXtension (NNX).

specialmente questa parte di Neural NetseXtension (NNX), perché la incasineremo per bene.

Non è meglio trasformare in Neural Universal eXtension (NUX) quasi LINUX

 
Sì, dovremo fare una votazione più tardi o lanciare le opzioni ai Metakvot.
 
gpwr:
Se la domanda è per me, nella letteratura, le reti che ho descritto sono chiamate reti neurali gerarchiche.

EMNIP, il cognitron rappresenta qualcosa di simile.

Aspettando il seguito :)

 
TheXpert:
Sì, dovremmo fare una votazione o lanciare delle opzioni a Metakvotam dopo.

Perché la fretta, in linea di principio dovremmo anche considerare nel nome del prodotto la possibilità di scambiare con altri pacchetti di neuro e la generazione di un consigliere finale pronto.

Il prodotto è più di NN. Nel processo, può svilupparsi in qualcos'altro di utile.

 
Mischek:

Il prodotto è più grande di NN.

Capito. Ma legato specificamente a NN. Sarà legato in modo più accurato.

Ho paura che otterremo qualcosa come "AWVREMGVTWNN" :) La cosa principale è trasmettere l'essenza, le sfumature non sono così importanti.

 

Informazioni su

-Discesa del gradiente coniugato

-BFGS

 

Metodo del gradiente coniugato (wiki)

-BFGS (wiki)


Метод сопряжённых градиентов — Википедия
  • ru.wikipedia.org
Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
 

Lezione 3. Il modello HMAX

Per capire i dettagli della trasformazione biologica dell'informazione visiva guarderemo il popolare modello di riconoscimento di oggetti HMAX ("Hierarchical Model and X"). Questo modello è stato creato dai ricercatori del MIT guidati da Tomaso Poggio alla fine degli anni '90. La descrizione e il codice del modello possono essere trovati qui

http://riesenhuberlab.neuro.georgetown.edu/hmax.html

Con alcune leggere modifiche, HMAX fa un lavoro molto migliore delle reti neurali classiche nel riconoscimento dei volti. Questa immagine descrive abbastanza bene il modello:

Il primo strato del modello (S1) consiste in filtri di sezioni corte e diritte di quattro diverse inclinazioni (verticale, orizzontale, 45 gradi di inclinazione e 135 gradi di inclinazione - mostrati in rosso, giallo, verde e blu), ciascuno di 16 dimensioni, in modo che ogni sezione dell'immagine di input sia "coperta" da 4 x 16 filtri. Ogni filtro è un neurone con un'uscita uguale alla somma dei pixel dell'immagine in qualche area dell'immagine moltiplicata per i pesi d'ingresso di questo neurone. Questi pesi di ingresso sono descritti dalla funzione Gabor. Ecco un esempio di questi filtri (pesi):

Il secondo strato del modello (C1) consiste di neuroni complessi. Ogni neurone complesso seleziona la massima attivazione (output) dei neuroni S1 che filtrano sezioni della stessa pendenza in diverse parti dell'immagine e in due dimensioni adiacenti. Così, questo neurone complesso ha l'invarianza alla posizione e alla dimensione dei segmenti elementari, che è spiegata di seguito:

I neuroni del terzo strato del modello (S2) prendono input dai neuroni C1. Come risultato si ottengono filtri di forme più complesse (denominati P1, P2,...) che sono composti da segmenti elementari. Per ogni figura abbiamo 4 set di filtri di diverse dimensioni. I filtri all'interno di ogni set differiscono nella loro posizione spaziale ("guardare" parti diverse dell'immagine).

I neuroni del quarto strato del modello (C2) scelgono l'attivazione massima dei neuroni S2 che stanno filtrando la stessa figura ma di diverse dimensioni e disposizione spaziale. Il risultato sono filtri di forme più complesse che sono invarianti alla loro posizione e dimensione.

Riferimenti:

T. Serre, "Robust object recognition with cortex-like mechanisms", IEEE Trans. su Pattern, agosto 2006.

http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf