La etiqueta del mercado o los buenos modales en un campo de minas - página 41

 

He estado comparando la precisión de las previsiones neuronales de una capa y de doble capa en los relojes Eurobucks, y veo que la de una capa es notablemente más eficiente. Creo que esto se debe a que no hay dependencias no lineales "complicadas" entre las barras del mercado. Aquí todo es tan sencillo como una palanca y las dependencias son de lo más lineales, que es lo que funciona el monocapa. Por cierto, esencialmente, la arquitectura de una sola neurona es análoga al modelo AR lineal del orden n-ésimo, donde n es un número de entradas de NS, y el hecho de que la doble capa no encuentra nada nuevo entre las barras, dice acerca de la inutilidad de utilizar modelos AR no lineales en este, caso concreto.

paralocus писал(а) >>

Aunque no tengo una confianza absoluta en su corrección - prueba tu neurona en mis datos - está en el trailer junto con la chica, y si tienes tiempo y ganas - comprueba la chica en tus datos.

Me descargas tu archivo con el EURUSD 1h y guardas tus archivos Matkad en formato 11, de lo contrario no puedo volver a leerte.

 
paralocus писал(а) >>

Lo siento, por supuesto, pero últimamente me cuesta pillar la indirecta. Tal vez sea porque me he sentado demasiado frente al ordenador... ¿Qué es ese "algo" sobre el que escribe? Al menos dame un ejemplo.

Una vez alimenté el estocástico(0) en el momento de la formación de una nueva barra, entre otras cosas. O puede utilizar MA(0) con PRICE_TYPICAL como entrada. Por definición, ya contiene el precio de cierre. Es decir, le das una "pista" a la red y ésta sólo debe hacerse cargo de ella. Si capta la pista, sabrás que el algoritmo de entrenamiento funciona.

 
Neutron >> :

He estado comparando la precisión de las neuronas de una y dos capas en los relojes Eurobucks, y veo que la de una capa es notablemente más eficiente. Creo que esto se debe a que no hay dependencias no lineales "complicadas" entre las barras del mercado. Aquí todo es tan sencillo como una palanca y las dependencias son de lo más lineales, que es lo que se resuelve con el monocapa. Por cierto, esencialmente, la arquitectura de una sola neurona es análoga al modelo lineal AR del orden n-ésimo, donde n es un número de entradas de NS, y el hecho de que la doble capa no encuentra nada nuevo entre las barras, dice acerca de la inutilidad de utilizar modelos AR no lineales en este, caso concreto.

Envíame tu archivo con el EURUSD 1h y guarda tus archivos Matkad en formato 11, de lo contrario no podré volver a leerte.

Tenía esa sospecha, pero la he rechazado valientemente :-) Perdón por el formato - no lo vi bien. Por cierto, ahora estoy tratando de manipular la velocidad de aprendizaje (Eta griega) - los resultados para AUDUSD mejoraron significativamente introduciendo este 15-20 - obtuve más de 4,5 rendimientos. Pero esta acción no tuvo ningún efecto sobre los eurobucks.

Archivos adjuntos:
nero2_11.rar  222 kb
 
YDzh >> :

Una vez alimenté un estocástico(0) a la entrada cuando se formaba una nueva barra, entre otras cosas. O puede utilizar MA(0) con PRICE_TYPICAL como entrada. Por definición, ya contiene el precio de cierre. Es decir, le das una "pista" a la red y ésta sólo debe hacerse cargo de ella. Si capta la pista, sabrás que el algoritmo de entrenamiento funciona.

Entonces, ¿no sería más fácil introducir una barra cero (cierre inacabado) en la entrada? ¿Pero cómo se ven los resultados? El probador no ayudará aquí, y tampoco el modelado numérico, que Sergei aquí me enseña.

 

Lo calenté a 100... ¡maravillas, sin embargo!



 
Prueba a multiplicar por dos las estadísticas.
 

Este es un gran método de enseñanza. Lo principal es entender cómo utilizarlo correctamente.


¿Recuerdas mis "fantasías" sobre la entropía y todo eso? Así que eso es exactamente lo que has hecho, sólo tienes que abandonar la inicialización de las escalas y aumentar la temperatura de la niña, y luego enfriarla gradualmente. Y, la pregunta es, ¿por qué necesitamos esa doble capa?

Sería bueno pensar en la optimización simultánea de tres parámetros: la dimensionalidad de la entrada, el número de épocas y la temperatura inicial. Los tres parámetros son críticos, es decir, el cambio de cualquiera de ellos, incluso por uno (la temperatura por diez), da un resultado completamente diferente.

 
paralocus писал(а) >>

Los tres parámetros son críticos, es decir, si se modifica uno de ellos, aunque sea en una unidad (la temperatura en una décima), el resultado es completamente diferente.

En general, esto puede indicar una escasa capacidad de aprendizaje de la SN. Piénsalo, la búsqueda del mínimo global en la superficie debería proporcionarse desde casi cualquier punto de partida. Y no cumple esta condición (sensibilidad a la aleatorización inicial de los pesos). Esto es una campana.

Tenemos que descubrirlo hasta que lo entendamos.

 
¿Dónde debo buscar? Intentaré guardar los resultados del aprendizaje entre épocas. Sí, ¿y cuáles son los resultados de mis datos?
 
paralocus писал(а) >>
¿Dónde buscarlo?

¡Buena pregunta! No lo sé. Afortunadamente, Matcad permite visualizar el proceso de recuento en cualquier paso. Experimento.

Actualmente estoy haciendo mis pinitos con la bicapa: estoy estudiando la dependencia de la eficacia del aprendizaje con respecto a k. Es bastante intensivo en recursos, así que, no estoy ejecutando su solución en mi cuenta todavía.

Razón de la queja: