Redes neuronales, cómo dominarlas, por dónde empezar - página 7

 
Neutron >> :
Bueno, no seas tan duro. Al fin y al cabo, la red se reentrena a veces (y lo hago en cada cuenta de la PA que se analiza) y el método de la media encuentra un mínimo. En cuanto a la reducción de la dimensionalidad, no funciona para los BP como los de precios en la medida que presentas, por desgracia.

¿Qué marco temporal está utilizando? En cuanto a la reducción de tamaño, depende de lo que vayas a hacer. Si se trata de un preprocesamiento trivial, entonces no tendrá un efecto adecuado sin algunas consideraciones a priori, es decir, cuando ya se tienen suficientes datos y sólo se mejora el resultado. Si utilizas la reducción de tamaño para otra cosa, puede ser cualquier cosa. ;)

 
registred писал(а) >>

¿Qué plazos utiliza?

No uso ninguna TF.

La razón es que los candelabros se utilizan en todos los marcos de tiempo, por lo tanto el BP construido por los precios de apertura (o la apertura) está más cerca del BP aleatorio integrado que el BP construido a partir del inicial por otros métodos (como el cambio al tiempo del instrumento, etc.).

 

¡Gracias gpwr, arnautov!

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

¿Entiendo correctamente que los datos de entrada son las variables de los parámetros externos del EA, con las que se compararán los coeficientes?

¿Más cerca del tema? No hay problema. Deberías empezar escribiendo una neurona, y luego combinarlas en una red. Y los programas sofisticados - eso es después. Todos los demás consejos son basura.

Y escribir una neurona, ¿se puede dividir en etapas?


¿Y bien? Quien escribió en el hilo que le gustaría usar un ejemplo, ¿empezamos?

Los primeros pasos se nos han señalado, el asesor está en la página cinco...

 
Neutron >> :

Sé que se demostraron dos teoremas no hace mucho tiempo.

Agradeceré las referencias

Según el primero, el NS no lineal de tres capas (que consiste en tres capas de neuronas, con no linealidad en la salida de cada capa) es un aproximador universal

Bueno, parece que se ha demostrado hace mucho tiempo. Que se puede aproximar cualquier función, por pequeña que sea la precisión, con un perseptrón de 3 capas.

y aumentar el número de capas no añade potencia a la red.

Según el segundo teorema, la potencia de cálculo de la red no depende del tipo específico de no linealidad en las salidas de sus neuronas. Es importante que (la no linealidad) sea en principio, y no importa lo que sea exactamente - sigmoide o arctangente.

Lo que decía es el resultado de experimentos prácticos. En cuanto a la no linealidad... Sin embargo, primero hay que familiarizarse con estos teoremas.

Además, se demuestra una relación inequívoca entre la longitud óptima de la muestra de entrenamiento sobre datos históricos, la dimensionalidad de la entrada de la NS y el número total de sus sinapsis, en el sentido de minimizar el error de predicción sobre datos no implicados en el entrenamiento de la red. Esto permite no incurrir en el leninismo seleccionando manualmente este óptimo. Con las capacidades existentes de MS, esto ahorra mucho tiempo y esfuerzo.

¿Te refieres a números de parámetros ajustables? También se incluyen los umbrales. Por cierto, también sería útil tener una prueba documental. Y no estaría mal que los que están empezando a tratar con redes neuronales se familiarizaran con este material.

 
Andrey4-min >> :

Y escribir una neurona, ¿se puede desglosar en pasos?

Es mejor escribir en un lenguaje orientado a objetos.


La neurona es un concepto demasiado superficial al escribir NS.

Una capa es una unión de neuronas idénticas, por lo que no tiene sentido considerar una neurona por separado.


Sólo he utilizado 2 tipos de abstracciones en mi biblioteca: capas y pesos.


Los pesos son un bloque de sinapsis que conectan 2 capas.

Una capa tiene un búfer de entrada, un búfer de salida y un búfer de error, y una función de activación. Las sinapsis son una matriz bidimensional, y enlazan el buffer de salida de la capa con el buffer de entrada de la siguiente manera.

Una red es un conjunto de capas y enlaces entre ellas. Cualquier capa que tenga señales distintas de cero en el búfer de error puede considerarse una capa de salida.

 
TheXpert писал(а) >>

Bueno, eso se ha demostrado hace mucho tiempo. Que un Perspectron de 3 capas puede saproximar cualquier función, con cualquier pequeña precisión dada.

Error, no precisión.

Si eso está claro, entonces qué sentido tiene toda esta complejidad:

TheXpert escribió >>

En muchos problemas el perseptrón de 4 capas muestra resultados y convergencia mucho mejores.

Y en algunos lugares se utiliza una capa de 5. En cuanto a las redes complejas (con múltiples capas de salida y enlaces complejos) basadas en un perseptrón, dejaré de lado esa parte por ahora.

¿Se refiere al número de parámetros configurables? También se incluyen los umbrales. Por cierto, también sería útil documentarlos. Y aquellos que están empezando a dedicarse a las redes neuronales harían bien en familiarizarse con este material.

Sí, me refería al número de pesos en NS y su relación con el número de entradas y la longitud óptima de la muestra de entrenamiento. La derivación de la relación se da en el artículo adjunto en las páginas 64-65. 64-65. Brevemente, si el número de pesos de NS es w , el número de entradas d y la longitud de la muestra de entrenamiento P, en el óptimo se debe cumplir la condición: P = (w^2)/d

Las referencias a los teoremas las daré más tarde - tenemos que encontrarlas.

Archivos adjuntos:
yvtwslxtn.zip  1592 kb
 
Neutron >> :

Por margen de error, no por precisión.

Sí.

Si esto está claro, entonces por qué la complejidad:

Es sencillo, cuando añadir una capa o cambiar la arquitectura se hace con unos pocos clics de ratón o unas pocas líneas de código, entonces esas complejidades se convierten en extras interesantes.

Sí, me refería al número de pesos en el NS en relación con el número de entradas y la longitud óptima de la muestra de entrenamiento. La derivación de la relación se da en el artículo adjunto en las páginas 64-65.

>> Gracias. ¿Y la prueba del teorema? ¿O al menos la redacción exacta?

 

El teorema de idoneidad para cualquier función neuronal no lineal fue demostrado por el matemático ex soviético y, desde finales de los años 80, estadounidense Vladik Kreynovich [1] y publicado en una de las principales revistas occidentales sobre redes neuronales.

1. Kreinovich V.Y. La no linealidad arbitraria es suficiente para representar todas las funciones mediante redes neuronales: Un teorema / Neural Networks, 1991, Vol.4, № 3. - pp.381-383.

P.D. Sobre la suficiencia de 3 capas - más adelante.

 

La prueba de la suficiencia de 3 capas la vi en el artículo de Gorban A.N. "..." - no la encuentro.

La prueba de la suficiencia está en el artículo adjunto en la página 39.

Archivos adjuntos:
esibfjnus.zip  967 kb
 
Parece haber alguna relación con el teorema, demostrado por Kolmogorov, de que cualquier función de cualquier número de variables puede expresarse exactamente en términos de funciones de dos variables. Puede que no lo haya expresado con precisión, pero se menciona a menudo en los artículos sobre NS.
Razón de la queja: