"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 35

 
se esboza un constructor y luego se verá en la composición cómo llamarlo...
 
Mischek:
Lo ideal es que resuene ( sea amigable) con el logo de metaquot

MetaPerceptiva ;) (Percepción del perceptor)

incluso hay una idea para el logotipo :) -- El nombre del robot que olfatea una flor es un juego con la ambigüedad de la palabra Perceptivo. Cuanto más raro sea el robot, mejor :)

________

simplemente y con buen gusto Neural. o TheNeural :)

________

Neural Nets eXtension (NNX).

________

Neural Nets Xpert (NNXpert) :))))

________

Kit de herramientas de redes neuronales (NNToolkit)

________

Herramientas de redes neuronales (NNTools)

 
TheXpert:

Estoy a favor de Neural Nets eXtension (NNX).

especialmente esta parte de Neural NetseXtension (NNX) porque la vamos a cagar bien.

¿No es mejor transformar en Neural Universal eXtension (NUX) casi LINUX

 
Sí, tendremos que hacer una votación más adelante o lanzar las opciones a los Metakvots.
 
gpwr:
Si la pregunta es para mí, en la literatura, las redes que he descrito se llaman redes neuronales jerárquicas.

EMNIP, el cognitrón representa algo similar.

Esperando la continuación :)

 
TheXpert:
Sí, deberíamos hacer una votación o lanzar opciones a Metakvotam después.

Por qué las prisas, en principio también habría que considerar en el nombre del producto la posibilidad de intercambiar con otros packs de neuro y la generación de un asesor final listo.

El producto es más que NN. En el proceso, puede convertirse en algo más útil.

 
Mischek:

El producto es más grande que NN.

Entendido. Pero vinculado específicamente a NN. Se atará con más precisión.

Me temo que obtendremos algo como "AWVREMGVTWNN" :) Lo principal es transmitir la esencia, los matices no son tan importantes.

 

Información sobre

-Descenso por gradiente conjugado

-BFGS

 

Método del gradiente conjugado (wiki)

-BFGS (wiki)


Метод сопряжённых градиентов — Википедия
  • ru.wikipedia.org
Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
 

Conferencia 3. El modelo HMAX

Para comprender los detalles de la transformación biológica de la información visual, nos fijaremos en el popular modelo de reconocimiento de objetos HMAX ("Hierarchical Model and X"). Este modelo fue creado por investigadores del MIT dirigidos por Tomaso Poggio a finales de los años 90. La descripción y el código del modelo pueden encontrarse aquí

http://riesenhuberlab.neuro.georgetown.edu/hmax.html

Con algunas ligeras modificaciones, la HMAX hace un trabajo mucho mejor que las redes neuronales clásicas en el reconocimiento de caras. Esta imagen describe bastante bien el modelo:

La primera capa del modelo (S1) está formada por filtros de secciones cortas y rectas de cuatro inclinaciones diferentes (vertical, horizontal, inclinación de 45 grados e inclinación de 135 grados - mostradas en rojo, amarillo, verde y azul), cada una de ellas de 16 tamaños, de modo que cada sección de la imagen de entrada está "cubierta" por 4 x 16 filtros. Cada filtro es una neurona con una salida igual a la suma de los píxeles de alguna zona de la imagen multiplicada por los pesos de entrada de esta neurona. Estos pesos de entrada son descritos por la función Gabor. He aquí un ejemplo de estos filtros (pesos):

La segunda capa del modelo (C1) está formada por neuronas complejas. Cada neurona compleja selecciona la máxima activación (salida) de las neuronas S1 que filtran secciones de la misma pendiente en diferentes partes de la imagen y en dos dimensiones adyacentes. Así, esta neurona compleja tiene invariancia a la posición y al tamaño de los segmentos elementales, lo que se explica a continuación:

Las neuronas de la tercera capa del modelo (S2) reciben entradas de las neuronas C1. Como resultado obtenemos filtros de formas más complejas (denotados P1, P2,...) que están compuestos por segmentos elementales. Para cada figura tenemos 4 conjuntos de filtros de diferentes tamaños. Los filtros de cada conjunto difieren en su posición espacial ("mirando" a diferentes partes de la imagen).

Las neuronas de la cuarta capa del modelo (C2) eligen la activación máxima de las neuronas S2 que están filtrando la misma figura pero de diferente tamaño y disposición espacial. El resultado son filtros de formas más complejas que son invariables a su posición y tamaño.

Referencias:

T. Serre, "Robust object recognition with cortex-like mechanisms", IEEE Trans. en Patrón, agosto de 2006.

http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf