Redes neuronales, cómo dominarlas, por dónde empezar - página 12

 
Neutron >> :

No importa cómo se haga girar la NS, no importa lo que se ponga en sus entradas, ciertamente no hay milagros.

Así que, lo que obtenemos: Por un lado, cuanto más capas tenga el NS, mayor será su poder de predicción, pero no tiene sentido construir más de tres capas - la red de tres capas ya es un aproximador universal.

En general, no, no voy a discutir - estoy aburrido.

De ello se desprende que cuanto más estratificada esté la SN, más tiempo habrá que utilizar la muestra de entrenamiento para su formación. No sólo la complejidad del entrenamiento crece como P^3, sino que también podemos quedarnos sin datos.


Es la segunda vez que veo ese título. Hagamos las cuentas.


Tomemos como ejemplo una red m - n - k -- las letras representan el número de neuronas respectivamente en la capa de entrada, oculta y de salida.

La complejidad de la propagación de la señal es O(m*n + n*k) para sinapsis totalmente acopladas.

La complejidad de la retropropagación es similar.

Ahora introduzcamos una capa oculta adicional del mismo tamaño.

La complejidad es O(m*n + n*n + n*k).

Tomemos el cociente -- obtenemos (m + n + k)/(m + k).


Además, la introducción de la 2ª capa oculta permite reducir específicamente el tamaño de la 1ª capa.

Para ello he realizado tres mallas - 1, 2 y 3 en Mathcad y he comparado los resultados de la predicción de un signo de incrementos de cotierra con un recuento por delante (he reunido estadísticas de 100 experimentos independientes). Los resultados son los siguientes:

1 - p=10% de signos acertados (probabilidad=1/2+p).

2 - 15-16%

3 - 12%

Aquí hay algunos parámetros libres: dimensión de la entrada y número de neuronas en la(s) capa(s). El primer parámetro era el mismo para todas las arquitecturas, el segundo se elegía personalmente. Vemos que la rejilla NS de 3 capas no es la panacea, y quizás para nosotros, como operadores, la mejor opción para el bloque analítico de MTS es una rejilla de dos capas - desde el punto de vista de la máxima precisión de la previsión y de los requisitos mínimos de complejidad de la formación (potencia de RS, historia grande y su no crecimiento).

Ya es hora de pensar en una NS fractal con un número fraccionario de capas :)) . 2,5 estaría bien.

 

forma hipotética de dominar la tecnología NS
paso 1.

construya un NS en NS con una salida de compra/venta, aliméntelo con Close[x], mire el gráfico, vea - ¡la rejilla es ruidosa!
paso 2.

Ahora alimentamos algo más suave que el presupuesto inicial, pero el NS es ruidoso de todos modos.
¿Por qué? Porque el profesor es desigual. Soy demasiado perezoso para hacerlo a mano. (Aquí necesitas un espiralizador)
paso 3.

Lea el artículo de Reshetov, envíe el NS, entrénelo en el probador y note - sin ninguna función de error definida explícitamente.
Así que el Probador de Estrategias retumba, el desarrollador ronronea, dice que Reshetov es inteligente, que lo ha descubierto todo, que ha inventado un verdadero Maestro.
Sin embargo, Reshetov es muy inteligente, pero mi ordenador no funciona bien con MT-4, así que ¿dónde está MT-5?
Y para 4 entradas este "NS" vuelve a ser ruidoso. Ahora los datos históricos resultan ser desiguales - contienen diferentes tipos de mercados y no sabemos cuáles)
.... repetimos los pasos 1-3 en el bucle.
paso 4.

nos damos cuenta de que estamos atascados: no podemos hacer crecer la red, el MQL es lento y el entrenamiento de neurópatas está algo alejado del comercio.
paso 5.

Pensando en una encrucijada - ahora hemos empezado a trabajar con NS, sabemos que NS no es tanto matemáticas como tecnología,
puede ser salvado por NS Trader, tiene un mejor probador.
bien y...
¿Para qué sirve todo esto?
paso 6

Si inventamos una red y la entrenamos, en este proceso, se aclara lo que realmente necesitamos y lo real se realiza sin NS,
sin NS en absoluto.
resulta
La NS sólo es necesaria para entender lo que se puede explicar mientras se explica a una persona tonta))

 
TheXpert писал(а) >>

Hagamos las cuentas.

En la página 7 del tema que coloqué el archivo con el artículo, hay una estimación de la complejidad del entrenamiento (p.65-66): C=P*w^2=d*P^2=(w^4)/d, lo que sugiere que metí la pata ligeramente (un poco embarazada) y la complejidad es proporcional a d*P^2 o a través del número de sinapsis: (w^4)/d

Además, introducir una 2ª capa oculta permite reducir concretamente el tamaño de la 1ª.

¿De dónde viene eso?
 
Neutron >> :
¿De dónde se deduce?

Si no es estrictamente, entonces indirectamente a partir del número de parámetros ajustables. Estrictamente nyahsil. No soy bueno con las pruebas.

Y si añado mi propia idea, en realidad creo desde hace tiempo que la mejor estructura de velocidad no lineal de convergencia del perseptrón es la espina de pez, pero aún no lo he comprobado.

Cuando me ponga a ello, lo dibujaré.


Algunas ideas para el año nuevo :)) .

 
Korey писал(а) >>
>>)) mientras le está explicando algo, debería entender lo que le está explicando).

Hay un punto importante que no has querido mencionar: tendrás que explicar el NS una vez (y tú también lo entenderás, como has señalado correctamente), y luego, como un torno, funcionará en el mundo cambiante (cotier), ¡sin importarle que entiendas completamente lo que significa!

TheXpert escribió >>

estructura de perseptrón -- espina de pescado

¿Qué estás fumando?

¡Oh, lo entiendo! Bueno, seguro que parece un árbol de Navidad. Me pasa lo mismo a nivel intuitivo.

 
Neutron >> :

...

¿De dónde viene eso?

leer haykin -------> punto 4.15. Métodos de simplificación de la red

 

Es indiferente el algoritmo que tomes para aprender . El resultado es el mismo). No hay que hurgar en la red neuronal, hay que buscar las entradas.

 
PraVedNiK писал(а) >>

leer haykin -------> punto 4.15. Métodos de simplificación de la red

No hay problema. >> ¡Leamos!

 

¡Abeto! La intuición no tiene nada que ver, NS es un codificador piramidal, + es similar a la FFT.
Por ejemplo, basándose en el modelo de codificador piramidal es elemental calcular el número mínimo de neuronas.

es decir, el codificador piramidal es la cobertura mínima del NS diseñado.

 
Neutron >> :

¿Qué estás fumando?

Déjalo :)

¡Oh, lo entiendo! Bueno, seguro que parece un árbol de Navidad. Me pasa lo mismo a nivel visceral.

Razón de la queja: