"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 35
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Lo ideal es que resuene ( sea amigable) con el logo de metaquot
MetaPerceptiva ;) (Percepción del perceptor)
incluso hay una idea para el logotipo :) -- El nombre del robot que olfatea una flor es un juego con la ambigüedad de la palabra Perceptivo. Cuanto más raro sea el robot, mejor :)
________
simplemente y con buen gusto Neural. o TheNeural :)
________
Neural Nets eXtension (NNX).
________
Neural Nets Xpert (NNXpert) :))))
________
Kit de herramientas de redes neuronales (NNToolkit)
________
Herramientas de redes neuronales (NNTools)
Estoy a favor de Neural Nets eXtension (NNX).
especialmente esta parte de Neural NetseXtension (NNX) porque la vamos a cagar bien.
¿No es mejor transformar en Neural Universal eXtension (NUX) casi LINUX
Si la pregunta es para mí, en la literatura, las redes que he descrito se llaman redes neuronales jerárquicas.
EMNIP, el cognitrón representa algo similar.
Esperando la continuación :)
Sí, deberíamos hacer una votación o lanzar opciones a Metakvotam después.
Por qué las prisas, en principio también habría que considerar en el nombre del producto la posibilidad de intercambiar con otros packs de neuro y la generación de un asesor final listo.
El producto es más que NN. En el proceso, puede convertirse en algo más útil.
El producto es más grande que NN.
Entendido. Pero vinculado específicamente a NN. Se atará con más precisión.
Me temo que obtendremos algo como "AWVREMGVTWNN" :) Lo principal es transmitir la esencia, los matices no son tan importantes.
Información sobre
-Descenso por gradiente conjugado
-BFGS
Método del gradiente conjugado (wiki)
-BFGS (wiki)
Conferencia 3. El modelo HMAX
Para comprender los detalles de la transformación biológica de la información visual, nos fijaremos en el popular modelo de reconocimiento de objetos HMAX ("Hierarchical Model and X"). Este modelo fue creado por investigadores del MIT dirigidos por Tomaso Poggio a finales de los años 90. La descripción y el código del modelo pueden encontrarse aquí
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
Con algunas ligeras modificaciones, la HMAX hace un trabajo mucho mejor que las redes neuronales clásicas en el reconocimiento de caras. Esta imagen describe bastante bien el modelo:
La primera capa del modelo (S1) está formada por filtros de secciones cortas y rectas de cuatro inclinaciones diferentes (vertical, horizontal, inclinación de 45 grados e inclinación de 135 grados - mostradas en rojo, amarillo, verde y azul), cada una de ellas de 16 tamaños, de modo que cada sección de la imagen de entrada está "cubierta" por 4 x 16 filtros. Cada filtro es una neurona con una salida igual a la suma de los píxeles de alguna zona de la imagen multiplicada por los pesos de entrada de esta neurona. Estos pesos de entrada son descritos por la función Gabor. He aquí un ejemplo de estos filtros (pesos):
La segunda capa del modelo (C1) está formada por neuronas complejas. Cada neurona compleja selecciona la máxima activación (salida) de las neuronas S1 que filtran secciones de la misma pendiente en diferentes partes de la imagen y en dos dimensiones adyacentes. Así, esta neurona compleja tiene invariancia a la posición y al tamaño de los segmentos elementales, lo que se explica a continuación:
Las neuronas de la tercera capa del modelo (S2) reciben entradas de las neuronas C1. Como resultado obtenemos filtros de formas más complejas (denotados P1, P2,...) que están compuestos por segmentos elementales. Para cada figura tenemos 4 conjuntos de filtros de diferentes tamaños. Los filtros de cada conjunto difieren en su posición espacial ("mirando" a diferentes partes de la imagen).
Las neuronas de la cuarta capa del modelo (C2) eligen la activación máxima de las neuronas S2 que están filtrando la misma figura pero de diferente tamaño y disposición espacial. El resultado son filtros de formas más complejas que son invariables a su posición y tamaño.
Referencias:
T. Serre, "Robust object recognition with cortex-like mechanisms", IEEE Trans. en Patrón, agosto de 2006.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf