Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Hasta ahora, fue la ausencia de esos detalles sobre los que pregunté más arriba lo que me sumió, como un tonto cualquiera, en el estupor. Releí el artículo tres veces, pero sólo encontré las respuestas que necesitaba en el foro.
Después de algunas deliberaciones, se decidió escribir la segunda parte del artículo.
Por el momento, la segunda parte cubrirá el trabajo con redes neuronales multicapa.
Si tiene algún deseo sobre su contenido, por favor, escríbalo brevemente.
Aquellas ideas que pueda transmitir con mis dedos serán descritas en el artículo.
Gracias.
Asumo "ingenuamente" que entre los hablantes nativos de ruso no es habitual llamar "ajuste de parámetros" al proceso de aprendizaje independiente. Como tampoco se acepta llamar aprendizaje a la selección de parámetros (con ayuda de procesos externos) para cualquier sistema.
Se llame como se llame el ajuste, no dejará de ser ajuste.
Optimización, ajuste y aprendizaje para redes neuronales que trabajan con datos no estacionarios son sinónimos. Porque los tres términos significan lo mismo: selección de coeficientes de ponderación para datos históricos pasados (muestra de entrenamiento) con el fin de minimizar los errores en la salida de la red neuronal. Si fuera posible alimentar la red con datos futuros, entonces sería otra cosa. Pero aún no venden máquinas del tiempo en las tiendas de material de oficina, así que tenemos que ajustarnos al pasado.
Se llame como se llame una adaptación, no dejará de ser una adaptación.
Sólo hay una cuestión de interés: cómo crear un programa de autoaprendizaje que pueda prescindir del uso de un optimizador "externo". Si tal cosa es posible a estas alturas, claro.
Es sencillo. El código EA puede contener la propia red y su optimizador de pesos, que puede ser lanzado automáticamente cuando llegan nuevos datos. Bajo redes neuronales en la mayoría de los casos nos referimos a tales redes de autoaprendizaje. Las redes entrenadas externamente, por ejemplo por el optimizador del probador, son juguetes.
Chicos, ¡ayudadme! ¿He entendido bien que la normalización de los datos de entrada debe hacerse para todo el periodo de entrenamiento de la red? Es decir, ¿los valores máximos y mínimos de xi deben tomarse de todo el periodo?
Escribí este búho. ¿Podemos decir que es una red neuronal, porque tengo mis dudas.
Búho para el comercio en el canal.
Algoritmo es el siguiente: extremums se toman para el número de barras de Fibo (2,3,5,8,13....). Para cada neurona para comprar, por ejemplo - si el precio es inferior o igual al precio de la extremidad BAJA durante un período, a continuación, devolver 1 de lo contrario - 0. Además, como en el ejemplo con NeuronMACD. Para vender - reflejar lo contrario.
Estoy a la espera de la crítica del código y el algoritmo.
Escribí este búho. ¿Podemos decir que es una red neuronal, porque tengo mis dudas.
Búho para el comercio en el canal.
Algoritmo es el siguiente: extremums se toman para el número de barras de Fibo (2,3,5,8,13....). Para cada neurona para comprar, por ejemplo - si el precio es inferior o igual al precio de la extremidad BAJA durante un período, a continuación, devolver 1 de lo contrario - 0. Además, como en el ejemplo con NeuronMACD. Para vender - reflejar lo contrario.
Estoy a la espera de la crítica del código y el algoritmo.
En su caso, la Función de Activación de Neuronas puede ser desechada, un freno innecesario.