Neuroprevisión de series financieras (basada en un artículo) - página 7

 
Vizard:

esto es una caja negra...

Eso es seguro... yo, hubiera sido más o menos estable, pero no es.... .....
 
Que se lo digan a LeoV, por ejemplo ))
 
Y qué decir de Leonid, que se debate entre una u otra formación. Por supuesto, sus resultados en NS son impresionantes, por lo que está con stev wards en una mano corta.... Me parece que toda NS rota implica algún tipo de mecanismo de inestabilidad. En cualquier caso, al intentar entrenar sus cartas, obtuve un resultado completamente diferente aunque sus koters eran los mismos. ¡¡¡¡La diferencia era que él tenía una NS legal y yo tenía NO!!!!
 
nikelodeon:


Básicamente, como quieras llamarlo...


Lo tengo. Es como pensar "como ayer" en lugar de como ahora.
 
Integer:

Lo tengo. Es como si pensara como lo hizo ayer, no como lo está haciendo ahora.

Una red neuronal piensa como se le ha enseñado. Y puedes enseñarle cualquier cosa, incluso: 2 x 2 = 5.

Estamos construyendo una red con dos entradas. Enseñar la tabla de multiplicar, en la que, todo es correcto excepto que los dos en las entradas dan un cinco en la salida. Entrenada, obtenemos una red neuronal para la que 2 x 2 = 5.

 
Reshetov:

Una red neuronal piensa como se le ha enseñado. Y puedes enseñarle cualquier cosa, incluso: 2 x 2 = 5

No se trata de cómo funciona la red, sino de lo que significa la frase "como ayer" en relación con las redes.

 
Y si le das a una red neuronal una secuencia de símbolos del alfabeto inglés, por ejemplo, de la obra de Shakespeare, y le das a la salida el siguiente símbolo (su número, por supuesto), entonces la red aprende a producir probabilísticamente el siguiente símbolo. En inglés, como en ruso, hay regularidades en la secuencia de las letras.
 
Integer:

No se trata de cómo funciona la red, sino de lo que significa la frase "como ayer" en relación con las redes.

Ayer enseñó a la red a operar en la tendencia, hoy se desploma con éxito en la lateralidad. Esto no es raro. Y no se puede enseñar a la red todo, como anticiparse a las intervenciones, a los cambios bruscos de volatilidad, etc., etc.
 
Reshetov:
Ayer enseñó a la parrilla a operar en la tendencia, hoy está volcando con éxito en los laterales. Esto no es raro. Y no se puede enseñar a la red todo, como anticiparse a las intervenciones, a los cambios bruscos de volatilidad, etc. etc.

Es que la señal en tal caso será aleatoria. Si es correcto..... Es sólo suerte, digamos. Pero encontrar durante la optimización aquellos parámetros que funcionarán en el futuro, es ciertamente difícil....No es difícil encontrarlos, es difícil elegirlos.....
 
nikelodeon:

Por qué no, la señal será aleatoria.

La señal de una red neuronal entrenada sólo en tramos de tendencia no será aleatoria, sino que será la forma en que la red esté entrenada. Es decir, seguirá el movimiento y se volcará hacia los lados.

Razón de la queja: