Previsión de series temporales con Deductor Academic 5.2 - página 5

 
Lo muestra todo, los giros y la fuerza.
 
Todo depende de los marcos y la configuración . Del 70% al 95%.
 
AAAksakal:
Todo depende de las monturas y los ajustes . Del 70% al 95%.
Algo así, pero en noticias fuertes, por desgracia.
 
Tampoco le importan las noticias. Las noticias las saco de la previsión de Ded.
 
AAAksakal:
Sí todo lo que muestra y los reveses y la fuerza .

Las pruebas son muy deseables. Es una gran noticia que se pueda predecir en tramos de tensión inestable. Usted es el único que afirma esto, no conozco a otros.
 
No es de agradecer que se demuestre nada, de hecho es muy difícil hacer buenas previsiones. Son muchos los factores que influyen en la creación de una previsión precisa, por ejemplo lo siguiente, si se hace una previsión es mejor hacerla al principio del día, no se debe hacer una previsión en medio de las sesiones de negociación. se puede hacer una previsión cuando una sesión ha jugado completamente pero, la ventana de inmersión en la historia debe retroceder 24 horas +1 en la sesión de negociación..... Los mejores pronósticos se obtienen para 5 min., neuron.net, como odio admitirlo, no lo soporto ya que el 95% es basura, sin embargo la red necesita ser ajustada para cada par por separado, también toma mucho tiempo y hay algunas sutilezas...... En realidad, hay muchas sutilezas.
 
AAAksakal:
Probar cualquier cosa no es un esfuerzo que valga la pena.
Es increíble que haya gente en el mercado que esté orgullosa de ello. Es decir, se puede mostrar la ejecución de un probador con un gráfico. ¿O es que todo lo que has escrito es una basura de calor?
 
Sí, se me olvidó añadir una parte importante. Si quieres actualizar tu previsión, tendrás que desmontar el bloque lineal o de red y reiniciar el proceso. De lo contrario, obtendrá una actualización pero con los coeficientes antiguos, no se actualizarán.Cuando derribe y comience nuevos bloques obtendrá coeficientes frescos.
 
Adiós a todos.
 

Este fiscal es bastante débil.


Lo ejecuté en un simple ejemplo de reconocimiento clásico:


Ejemplo de cadenas:

1. Pájaro

2. Mosca

3. Avión

4. Planeador

5. Cohete sin alas

Las seis primeras columnas son entradas de objetos reconocibles. El resto de las columnas son salidas.




Una cuadrícula de dos capas: 6 x 2 x 6 x 6


Cuando se comprueba con Back Propagation es un verdadero fastidio, porque el 40% de la muestra de entrenamiento es de separabilidad lineal, si el error es inferior a 0,01, entonces la muestra de entrenamiento se considera reconocida.


Por lo tanto, ni un avión, ni un planeador ni un cohete fueron reconocidos, todas las salidas tienen sólo valores negativos con cualquier entrada. El pájaro y el planeador se reconocen con bastante precisión. También se reconoció con bastante precisión la salida de las diferencias de los objetos biológicos con respecto a los mecánicos.



Al probar el RPROP en las mismas condiciones y con la misma arquitectura, los resultados son mejores:

Así que aquí la separabilidad lineal ya es del 100%, pero los errores están presentes.

Razón de la queja: