Uso de redes neuronales en el comercio. - página 3

 
StatBars писал(а) >>

Las imágenes muestran datos no normalizados y de diferentes datos, sólo di un ejemplo de lo que hice (cómo se ve como resultado)

Y aquí está el script, puedes usarlo para ver cómo será la salida (pero no seas demasiado exigente con los datos de entrada - este script se hizo sólo para ilustrar...)

/Tipo 0 - normalización lineal, 1 - no lineal

StatBars, ¡no tengo ninguna queja!

Bueno, funciona - y es bueno. Sólo quiero dejar claro que el procedimiento de normalización no es lo mismo que suavizar la distribución y que se necesita un enfoque más sofisticado. Pero, por otro lado, tenemos el valor de entrada en un rango final de +/-1 y en forma de estante - un sabroso regalo. Además, al encalar la entrada, se obtiene una sensación estética de placer.

 
Neutron писал(а) >>

StatBars, ¡no me quejo!

Bueno, funciona y está bien. Sólo quiero aclarar que el procedimiento de normalización no es igual a la igualación de la distribución y que se necesita un enfoque relativamente más complejo. Pero, por otro lado, tenemos un valor de entrada en el rango final +/-1 y en forma de estante - un sabroso regalo. Además, al encalar la entrada, se obtiene una sensación estética de placer.

)))

Por cierto implementado un método descrito en un artículo, no recuerdo exactamente donde lo leí ... En general, utilizando la función de distribución de áreas, la segunda imagen es precisamente el trabajo de este método.

De todos modos, aquí hay un archivo con una simple normalización y alineación de frecuencias, no es el mejor ejemplo, pero sin embargo...

¿Has blanqueado las entradas? Sólo tengo un par de preguntas...

Archivos adjuntos:
 

Lo hice.

Pero hay una diferencia entre el blanqueo y el aclaramiento. Puedes alimentar tontamente dos limpiaparabrisas a dos entradas NS y pretender blanquearlos... Este es un caso (clínico), y se pueden poner precios de apertura de bares en una docena - esa es otra, no hay nada que blanquear - todo es blanco como es.

 
He leído el hilo, es más informativo que los otros, pero hoy es el día de las buenas acciones, así que lo subiré al T-O-P-I-C-K-E... :-О)
 
Neutron >> :

Leonid, no hay ningún problema con el reentrenamiento de la NS - es de no entender la esencia de lo que está pasando dentro de esta caja con un hermoso nombre y tres clavos en su interior. No tome una muestra de entrenamiento más corta que la mínima y no tendrá que decidir por instinto qué es mejor y qué es peor.

Sobre las entradas "correctas" estoy 100% de acuerdo contigo que es la clave del éxito - todo lo que se puede resolver para NS-ku - debe ser resuelto de forma independiente. Hay que dejar las cosas que la solución no tiene o que son injustificadamente difíciles. Por ejemplo, no tiene ningún sentido alimentar la entrada Zig-Zag. En este caso el comportamiento de NS es obvio - aprenderá lo que hay en la superficie - familiaridad de los brazos ZZ, y el uso de tales datos de entrada es cero.

No hay entradas erróneas. Hay una tarea equivocada.

 

Sobre el tema de la normalización. No todos los tipos de normalización pueden aplicarse en el contexto de la tarea en cuestión.

 
registred писал(а) >>

No hay entradas erróneas. Hay una tarea mal dirigida.

¿Por qué no? Lo hay. Además del problema objetivo (correcto), también están los datos con los que se resolverá este problema...

Y sobre la normalización, ¿alguna explicación?

 
Una dificultad surge durante la normalización: mientras que todas las neuronas son iguales al describir una red neuronal, y es posible describir una neurona una vez, después de eliminar las conexiones desprendidas las neuronas suelen tener una estructura diferente.
 
StatBars >> :

¿Por qué no? Lo hay. Además del problema objetivo (correcto), también están los datos con los que se resolverá este problema...

Y sobre la normalización, ¿alguna explicación?

Bueno, hay una normalización lineal y otra no lineal. No lineal es sensible a la varianza de los nuevos datos. El lineal es sencillo y requiere menos pasos computacionales, pero para él la no simetría, por así decirlo, afectará a la duración del entrenamiento. Con ella, la varianza puede ser lo que quiera como resultado del entrenamiento, sujeto a ciertas condiciones. Pero en el propio entrenamiento, una serie que no ha sido normalizada a una media cero y una varianza unitaria hará que la red aprenda al final más tiempo que si se hace dicha normalización. Sobre la primera pregunta, mi opinión personal es la siguiente. Puedo tomar MA, puedo tomar los incrementos de la serie. No habrá ninguna diferencia para mí. La esencia será que si después de entrenar la red, el resultado del entrenamiento depende de lo que yo elija (MA o simplemente incrementos de la serie), entonces sólo indicará que la tarea fue establecida incorrectamente y la red simplemente estaba aprendiendo lo que yo intentaba enseñarle. Es decir, simplemente realizando las acciones que le enseñé. Pero para encontrar regularidades, es decir, para generalizar, la red no lo hará o no lo hará correctamente. Se trata de reducir el error de generalización del tipo de datos que se requeriría a la salida de la red neuronal. Los datos de entrada pueden ser incrementos de una serie temporal pero no necesariamente su versión suavizada en forma de MA o cualquier otra. Todos escriben que la serie debe ser suavizada. Pero creo que no importa ya que las regularidades objetivas en los datos se guardan y lo principal es elegir el número necesario de incrementos en tu serie.

 
registred писал(а) >>

Bueno, hay una normalización lineal y otra no lineal. No lineal es sensible a la varianza de los nuevos datos. El lineal es sencillo y requiere menos trabajo computacional, pero su no simetría, por así decirlo, afectará al tiempo de aprendizaje. Con ella, la varianza puede ser lo que quiera como resultado del entrenamiento, sujeto a ciertas condiciones. Pero en el entrenamiento propiamente dicho, una serie que no ha sido normalizada a una media cero y una varianza unitaria hará que la red aprenda al final más tiempo que si se realizara dicha normalización. En cuanto a la primera pregunta, mi opinión personal es la siguiente. Puedo tomar MA, puedo tomar los incrementos de la serie. No habrá ninguna diferencia para mí. La esencia será que si después de entrenar la red, el resultado del entrenamiento depende de lo que yo elija (MA o simplemente incrementos de la serie), entonces sólo indicará que la tarea fue establecida incorrectamente y la red simplemente estaba aprendiendo lo que yo intentaba enseñarle. Es decir, sólo realiza las acciones que le enseñé. Pero para encontrar regularidades, es decir, para generalizar, la red no lo hará o no lo hará correctamente. Se trata de reducir el error de generalización del tipo de datos que se requeriría a la salida de la red neuronal. Los datos de entrada pueden ser incrementos de una serie temporal pero no necesariamente su versión suavizada en forma de MA o cualquier otra. Todos escriben que la serie debe ser suavizada. Pero creo que no importa, porque las regularidades objetivas en los datos se conservan, lo principal es elegir la cantidad correcta de incrementos en su serie.

Creo que de tu post se deduce que la normalización depende más de los datos que de la tarea a realizar.

Sobre la segunda parte: ¿consideras el incremento de MA y el incremento de la serie?

Y en sentido general, ¿quieres decir que la red entrenada debe ser insensible a los datos de entrada? ¿O simplemente cambias los datos de entrada y la red debe seguir prediciendo?

Razón de la queja: