Red neuronal en forma de guión - página 10

 

Describa la notación de la fórmula S[j] = Suma(i)(y[i]*w[i,j] - t[j]). Según tengo entendido:

t[j] es el peso del umbral (se multiplica por una señal igual a -1)

y[i]*w[i,j] - la entrada multiplicada por su peso

S[j] - el resultado antes de aplicar la función logística

¿Qué es Suma(i)?

 
sergeev писал (а) >>

Describa la notación de la fórmula S[j] = Suma(i)(y[i]*w[i,j] - t[j]). Según tengo entendido:

t[j] es el peso del umbral (se multiplica por una señal igual a -1)

y[i]*w[i,j] - entrada multiplicada por su peso

S[j] - el resultado antes de aplicar la función logística

¿Qué es Suma(i)?

Sum[i] es la suma sobre i. No sé cómo escribir fórmulas aquí.


t[j] - valor umbral de la neurona

y[i]*w[i,j] - la salida de la capa multiplicada por el peso vinculante

S[j] es la suma ponderada antes de aplicar la función logística

 
TheXpert писал (а) >>

Sum[i] es la suma sobre i. No puedo escribir fórmulas aquí.

Eso es básicamente lo que inmediatamente pensé que era la cantidad.

--------------

La cuestión es que el umbral no se añade a cada valor de entrada sino al final de la suma total antes de alimentar la sigmoide. Es decir, es el umbral para la salida en su conjunto y no para cada entrada individualmente.

La fórmula es la siguiente:

S[j]=Suma{y[i]*w[i,j]} - t[j].

Es como el de Yuri.

for(i=0;i<NUM_INP;i++) // входной слой
    { 
        sum=0;
        for(j=0;j<NUM_INP;j++) sum+=ipl_W[i,j]*Input[j];
        ipl_Out[i]=Sigmoid(sum+ipl_Threshold[i]);
    }

y en principio estoy de acuerdo con ella, porque he visto tal anotación en la literatura.

 
sergeev писал (а) >>

Eso es básicamente lo que inmediatamente pensé que era la cantidad.

--------------

La cuestión es que el umbral no se añade en cada valor de entrada sino al final de la suma total antes de alimentar la sigmoide.

Así que la fórmula es

S[j]=Suma{y[i]*w[i,j]} - t[j].

Así es como lo hace Yuri.

y en principio estoy de acuerdo con ella, ya que he visto dicha anotación en la literatura.



Uf, claro que tienes razón, puse mal los paréntesis.

 

2 TheXpert

Tengo entendido que, por sus mensajes, es usted un experto en NS. Podrías aconsejar a un principiante por dónde empezar a analizar en NS para familiarizarse con su funcionamiento...

¿Y es bueno utilizar la retroalimentación en las redes? ¿Qué eficacia ha tenido en su práctica?

 
sergeev писал (а) >>

2 TheXpert

Tengo entendido que por sus mensajes es usted un experto en NS. ¿Podría aconsejar a un principiante por dónde empezar a analizar en NS para familiarizarse con el principio de su trabajo?

Y el uso de redes de retroalimentación también es algo bueno. ¿Qué eficacia ha tenido en su práctica?


Sinceramente, no sé ni qué decir. Tuvimos 2 cursos sobre NS en la universidad, empezamos con lo básico: modelo básico de neuronas, clasificación de redes, métodos de entrenamiento, etc., luego perseptron, lineal y no lineal, luego Kohonen, Hopfield, Hemming, recurrente, redes recurrentes....



Acerca de las redes recurrentes - no se utiliza en la práctica, IMHO, su ventaja y al mismo tiempo la desventaja es que depende de sus estados anteriores, es decir, por definición es adecuado para el intercambio.

Pero, de nuevo, IMHO, creo que se pueden obtener resultados similares con un perseptrón sin retroalimentación si se entrena utilizando el principio de la ventana deslizante. Esto también tiene una ventaja, el método de la ventana deslizante nos permite evaluar la robustez/estabilidad (véase la teoría del caos) de la predicción resultante con poca sangre, lo que puede ser de gran ayuda cuando el mercado es muy volátil y el resultado es imprevisible.

 
¿Cuál es la dependencia de la dimensionalidad y la "estratificación" de la red del número de patrones?
 
Andy_Kon писал (а) >>
¿Cuál es la dependencia de la dimensionalidad y la "estratificación" de la red del número de patrones?

Simon Heikin, en su libro Neural Networks en la página 282, da un teorema sobre la universalidad de las NS con UNA capa oculta. Esto es lo que implica:

Y qué sentido le das a la frase "dimensión de la red" no lo entiendo. ¿Es el número de neuronas en las capas ocultas o el número de entradas a la NS?

Si se trata de un número de entradas, el producto del número de entradas por el tamaño de la muestra de entrenamiento (número de patrones) debe ser igual al cuadrado de los pesos NS.

Si se trata del número de neuronas en las capas ocultas, su número viene determinado por la complejidad del problema y se encuentra experimentalmente.

 

dimensionalidad y "estratificación"

1. La dimensionalidad es el número de neuronas en la(s) capa(s).

2. La "estratificación" es el número de capas.

3 De aquí se desprende la siguiente pregunta, ¿cambio de neuronas en las capas, de capa a capa?

4. ¿Número de ciclos de aprendizaje a partir del número de capas, la dimensionalidad y el número de patrones (paternales) - (de forma óptima)?
 

¿Qué es el "cambio de neuronas en las capas", es un proceso de modificación de los pesos sinápticos de la(s) neurona(s) durante el entrenamiento del SN, o la búsqueda de la arquitectura óptima del SN mediante el cambio gradual del número de neuronas en las capas durante la optimización?

Pues bien, el número de ciclos de entrenamiento se define por el logro de un mínimo de error de generalización y no está directamente relacionado con el número de capas (y otras cosas), aunque depende débilmente de forma no lineal del número de neuronas y del número de capas. Depende de la "robustez" de la superficie de características multidimensionales que el NS construye para encontrar su mínimo global. Si la red funciona correctamente, basta con 50-100 épocas de entrenamiento por el método de Propagación de Errores hacia Atrás. Sin embargo, se necesitará mucho esfuerzo para hacerlo bien.

Razón de la queja: