Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Explíquese:
Supongamos que he entrenado el perceptrón1 con una muestra de prueba del fichero1. Aprendió a predecir el mismo archivo1 con un 100% de acierto.Luego probé este perceptrón1 con nuevos datos (archivo2). Los predijo correctamente en un 95%.
¿Cómo puedoentrenar el perceptrón1?
Opción 1:
Pego archivo1 y archivo2 = archivo12. Entreno el perceptrón2 desde cero alimentándolo con archivo12 + respuestas correctas.
Opción 2:
Corrijo manualmente las respuestas correctas en el fichero2 y vuelvo a entrenar el perceptrón1.
La opción 1 se explica por sí misma. Se trata simplemente de entrenar un nuevo perceptrón desde cero.
Pero, ¿cómo implementar la opción 2? ¿Es factible?
=========
Actualmente estoy experimentando en Jupyter en Python con la librería scikit-learn. Allí el perceptrón no tiene método para entrenarlo con nuevos datos....
http://scikit-learn.org/dev/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier
El artículo es estupendo, probablemente el único con una presentación más o menos detallada y comprensible,
Me gustaría pedir al autor que corrija la imagen, después de todo, en este ejemplo no consideramos una red, sino un perceptrón,
y estamos esperando un ejemplo de una red neuronal, por ejemplo: 2 neuronas en la entrada, 3 en la capa oculta, 1 en la salida.
¡muchas gracias por el articulo!
Osb: Todavía soy principiante en programación.
Tengo algunas dudas básicas y algunas me surgirán durante el desarrollo que intentaré hacer. ¿Puedo consultarte?
¿Estaría interesado en desarrollar este trabajo?
https://www.mql5.com/es/articles/2279
Cambiar la inclinación de la función de activación es completamente innecesario.
Véase la fórmula:
Durante el entrenamiento, la red debe recoger los multiplicadores Wn. Si es más favorable para la red tener un total de *0,4, simplemente seleccionará todos los pesos de Wn, cada uno de los cuales ya será *0,4. Es decir, nos limitamos a poner entre paréntesis el multiplicador común, que vendrá determinado por el error mínimo.
En esta implementación, basta con reducir el paso de selección de los pesos. En redes neuronales más serias, los coeficientes necesarios se encontrarán solos.
La normalización se realiza de forma incorrecta, y entonces se obtiene un coeficiente de 0,4 por alguna razón....
Supongamos que hay una serie de valores: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10
Los valores de esta serie deben reducirse a la secuencia [0,1]. Lógicamente, ésta sería la serie: 0, 0,1, 0,2, 0,3, 0,4, 0,5, 0,6, 0,7, 0,8, 0,9, 1.
Sin embargo, tu metodología sólo produce números aleatorios. Supongamos que obtenemos los valores del indicador: 6, 7, 8, 9, 10. Simplificando su fórmula:
Obtenemos:
6 >> 0
7 >> 0.25
8 >> 0.5
9 >> 0.75
10 >> 1
En esta serie, normalizada según las instrucciones de tu artículo, sólo es cierto el último valor.
Si has tenido un curso de álgebra lineal y sabes distinguir coseno de tangente, es incomprensible cómo puedes meter la pata en una tarea tan sencilla. ¡¡¡Los resultados de tu trabajo son puramente aleatorios!!!
Pero admito que utilicé esta misma publicación como punto de partida. La imprimí, la releí detenidamente, tomé notas con un bolígrafo. Luego fui a la Casa del Libro y compré"Redes neuronales para el procesamiento de la información" de Osovsky. Lo leí, me espabilé y aquí estoy escribiendo.....
¿Por qué sólo obtengo 365 dólares de beneficio cuando backtesting?