"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 22

 
¿Quién ha tratado con SLTM?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

Usted con los enlaces a la vez. No te entiendo del todo. O sin las abreviaturas :) .

Y, en mi opinión, cualquier red de modelización puede ser un clasificador.

 
TheXpert:
¿Quién trató con SLTM?

Aquí sólo iba a preguntar si todas las neuronas tienen una estructura de carrera de trabajo como:

in*wg
  +
 ...

Ahora veo que no todas, hay que tenerlo en cuenta y hacer una variedad de algoritmos no sólo por tipo de activador sino también por tipo de neurona.

 
Mischek:
Primero intenta formular una opinión general o casi general sobre los requisitos para un especialista
No, no. Ni siquiera es el segundo nivel del crepúsculo, es el tercero.
 
Mischek:
Primero intenta formular una opinión general o casi general sobre los requisitos para un especialista

Vladimir gpwr me conviene personalmente, tal vez aparezcan un par más de los suyos, así que no es necesario invitarlos todavía.

La otra cosa es que la gente está acostumbrada a que las cosas se muevan por tactos de horas, pero esto es OpenSourse, esos proyectos pueden durar mucho más, porque la gente trabaja cuando hay tiempo.

 
TheXpert:
¿Quién ha tratado con SLTM?
¿Por qué le interesa exactamente?
 
Urain:
¿Por qué le interesa exactamente?
No estoy familiarizado con el principio en absoluto. No es la única, puedo hacer más preguntas :)
 
TheXpert:

Usted con los enlaces a la vez. No te entiendo del todo. O sin las abreviaturas :) .

Y creo que cualquier red de simulación puede ser un clasificador.

SVM = Máquina de vectores de apoyo

RBN = Red de Base Radial

Aquí hay algunos enlaces:

Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Bell, A. J., Sejnowski, T. J. (1997).
Los componentes independientes de las escenas naturales son filtros de borde.
Vis. Res., 37, 3327-3338, In.

Olshausen, B. A., Field, D. J. (1996).
Emergencia de las propiedades del campo receptivo de las células simples mediante el aprendizaje de un código disperso para las imágenes naturales.
Nature, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert: SLTM
No estoy familiarizado con el principio en absoluto. No es el único, puedo hacer más preguntas :)

Wiki dice que además de los circuitos habituales.

in*wg
  +
 ...

La neurona también utiliza la multiplicación de las entradas, y la señal de retroalimentación (aparentemente de retardo), también jura que el principal método BeckProP a menudo se atasca cuando un error de los ciclos en la retroalimentación, por lo que es deseable hacer híbridos de aprendizaje con GA. Los activadores están en la primera capa solamente, luego todo es lineal, la primera neurona (o comité que no entiendo bien) transforma las entradas, las otras juegan un papel de filtros (permitiendo o no pasar la señal).

Se puede llamar bloque neuronal o una sola neurona con una función compleja de paso, depende de cómo se mire, una red se construye a partir de tales bloques.

 
TheXpert:
No estoy familiarizado con el principio en absoluto. No es la única, puedo hacer más preguntas :)
No eres el único que es así.
Razón de la queja: