Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Comparando los resultados del entrenamiento con tablas de multiplicar tu red pierde notablemente. En ALGLIB la red 2,5,1 para 100 epochs de entrenamiento(https://www.mql5.com/ru/forum/8265/page2) da mejores respuestas que la tuya con 1000000 epochs. La velocidad de cálculo de 10000000000 epochs tampoco es agradable.
Aparentemente el método de aprendizaje no es muy eficiente. Pero aún así - gracias por tu trabajo, es más fácil de entender en código pequeño que en ALGLIB. Pero entonces todavía tenemos que avanzar allí.
comparación errónea, en la versión alglib todos los 100 ejemplos se muestran para el aprendizaje, por eso las respuestas son más correctas. creo que si se reducen los ejemplos con respuestas en alglib, los resultados no serán mejores.
Hola, ¡muy agradecido de que te hayas tomado el tiempo de hacer esta librería nativa!
Traté de hacer una codificación en caliente y añadió relu a la oculta y una función Softmax a la llamada de la capa de salida. Funciona y produce un resultado total del 100% .
Pero la formación se estropeó, incluso cuando se cambia de nuevo a Sigmoud, es iRprop no aptos para la clasificación? Es más o menos da la misma salida no importa lo que la entrada es. Cambia a veces, pero no mucho.
Segunda pregunta, veo que Tanh y Sigmod son tratados de manera diferente en el método Lern, no entiendo esa parte del código todavía, pero ¿cuál es el adecuado para Relu?
Gracias por esta increíble contribución... ¿Puede explicar cómo puedo determinar el error permisivo?