Neuroprevisión de series financieras (basada en un artículo) - página 6

 
nikelodeon:

En realidad, es el sobreentrenamiento. Me sorprende que no lo sepa. La opinión generalizada es que una red está sobreentrenada cuando empieza a funcionar como lo hacía ayer. Es decir, no destaca los puntos clave de la entrada, sino que empieza a producir la misma señal que ayer.....

¿Tonterías, o cuál es otra palabra para ese tipo de tonterías?

Si a la red se le enseñó que 2*2=4, ¿qué debe responder si se le hace la pregunta "2*2=?

2*2=4 fue ayer y será mañana. Sería cuanto menos extraño que la red diera respuestas diferentes a las mismas preguntas.

 

En general, tal y como yo lo veo, muchos de los que en este foro han practicado con redes piensan que las redes neuronales son como una calculadora: se introducen los datos y la red produce un resultado. Así es: las redes son calculadoras.

Pero un conocimiento profundo de las redes y sus arquitecturas no proporciona ni puede proporcionar una visión de sus propiedades. Es una comprensión "estrecha" de cómo funcionan las RNA.

Así, un neurocirujano brillante no puede saber de qué es capaz el cerebro humano. Sólo los psicólogos y psicoterapeutas (no confundir con los psiquiatras), junto con los filósofos y tal vez los sociólogos, pueden saberlo. No se trata de cuestiones de "fisiología" de las redes, sino de intelecto, y éste es un nivel de comprensión de la RNA (y del cerebro humano) completamente diferente.

Sólo con este enfoque es posible conseguir algo de la RNA. Alimentar estúpidamente las cotizaciones a las redes nunca ha dado nada bueno antes, y no dará nada en el futuro. Pero el autor, en mi opinión "diagonal" (no tengo tiempo para una segunda opinión detallada) está mirando la predicción usando RNA desde el ángulo correcto, desde el punto de vista del Intelecto - usando indicadores, algunos "derivados" de las cotizaciones.

Pero, por pura intuición, dudo que sea posible pronosticar al 98%. El 80% probablemente sí, pero no el 98%. Tal vez el autor haya arrastrado un poco los resultados de la investigación; estoy dispuesto a admitirlo. Pero para verificar estos resultados, hay que hacer los mismos experimentos que el autor; sólo entonces se puede decir que algo es "cierto".

 

Entero:



También me sorprende mucho cómo se puede tener una opinión sin tener motivos para ello.
Ya di mi opinión sobre el término "sobreentrenado" en algún lugar de aquí. El término no refleja en absoluto la esencia del fenómeno. ¿Qué palabra inglesa se traduce así? Más bien, el término "memorizado" (de "atiborrado") o "aprendido" es más apropiado. El fenómeno es similar al de un empollón o un empollón con la cabeza en blanco, que no entiende nada pero ha memorizado el párrafo palabra por palabra. El fenómeno se produce al enseñar una red volumétrica con un número reducido de muestras. La red reacciona correctamente a las muestras de entrenamiento, pero no sirve para nada, ya que puede albergar el entrenamiento de un número mucho mayor de muestras, es decir, es sólo una cabeza vacía. El resultado que da es el que sea, no el de ayer. Por lo tanto, lo que tiene tal ayer no está claro para mí, algún tipo de milagros, algún tipo de sobreentrenamiento mágico.
Es como las fórmulas de programación, dicen de las fugas de memoria en cada ocasión. Lo mismo ocurre cuando se habla de las redes: el sobreentrenamiento, la sobreeducación, pero no mucha gente entiende lo que es.


Lo que quieras. Es que en algunos libros de texto he visto el fenómeno de que la red emite señales "Igual que ayer" no significa que emita la misma señal todo el tiempo. No, pero la esencia y el significado de las señales no cambian. En general, encontrar los parámetros de entrenamiento de una red es la tarea más difícil, que puede resolverse mediante una larga investigación estadística.

Supongamos que una red ha dado 100 opciones para configurar sus parámetros. Y sólo algunas de ellas son correctas. El resto se filtrará en el futuro. Tomemos como ejemplo una red en los macizos. Es muy bueno para el re-entrenamiento en cualquier área. Yo también quería probar esta teoría, pero no es mi destino. Así que, tal vez alguien lo necesite.

Tenemos dos secciones de formación

1. Entrenamos la red en la 2ª parte. Recibir un beneficio (el neto en cualquier parte de la formación recibirá un beneficio).

2. Observa cómo funcionaba la red en la sección 1.

Vamos a entrenar la red con el parche 1 para obtener el mismo resultado que tuvimos al entrenar con el parche 2.

Es decir, la función objetivo del entrenamiento no será el equilibrio máximo, sino otra muy distinta. Así, con la ayuda de la estadística podemos calcular cuál es la mejor.

Acabo de correr redes en NS, y allí con una selección de objetivos para la formación es de alguna manera escasa.

Como resultado, tras haber reunido las estadísticas, podemos llegar a la conclusión de que el propósito de formar a los máximos barones no siempre es bueno. Pero aquí hay otra cuestión, cómo encontrar el objetivo mismo, para que la NS funcione bien en el futuro. Sólo hay una opción, como se dice.

Ponemos en marcha una red y supervisamos su funcionamiento y sacamos una conclusión, si la red funciona ahora o no... Como este .....

Como resultado, los ajustes rentables de la red en la formación tienen este aspecto Por lo tanto, puede entrenar la red para este equilibrio y puede reunir en el futuro. Pero hay un talón de Aquiles, ¿cómo sabemos cuál debe ser el equilibrio? .... y no se puede entrenar el CT en NS así. Hay una dificultad con las funciones de entrenamiento de objetivos. Si sólo en otro programa para tratar....

 

O así, en ambos casos la curva baoan en la zona optimizada es extremadamente diferente, y desde luego no en el plus. Sin embargo, esto no ha detenido a la red en el futuro. Conclusión: ....

Me parece que si recojo estadísticas por tramos de la red, puedo obtener una similitud general en los balances que necesitamos para establecer un cierto patrón. Por lo tanto, no debemos entrenar la red para obtener el máximo beneficio en una determinada parte de la red, sino encontrar las señales ocultas que funcionarán en el futuro. Pero no en este momento. Así que, aquí está el truco. Forzar la red para encontrar parámetros que no funcionan ahora, pero que podrían tener un impacto útil en la red en el futuro..... Hay que reunir muchas estadísticas, y no son triviales......

 

En cualquier caso, resolviendo este problema (selección de resultados de optimización) al menos en un 60%, se puede obtener una herramienta para el comercio y no está nada mal.

No sé de otros paquetes, pero al optimizar en NS, obtengo varios resultados, empezando por un saldo negativo en el área de optimización. Ojalá fuera posible obtener todos los resultados de optimización en NS. Y luego elegir entre ellos, puramente visual por el equilibrio. Así podrías filtrar los resultados inútiles para la suerte. Ponga la red en funcionamiento y observe cuál de ellas empezará a bombear. El que empieza a gotear se apaga... O lo que sea..... Es una pena que NS no tenga esta opción. Al menos guarda los parámetros del indicador en un archivo durante la optimización....

De nuevo, no significa que en la optimización del 1er gráfico se obtengan los valores que se obtuvieron en la optimización del 2º gráfico. Así que hay un montón de preguntas sin resolver aquí......

 
nikelodeon:

Este es el truco. Conseguir que la red encuentre parámetros que no funcionan ahora, pero que podrían tener un impacto útil en la red en el futuro..... Hay muchas estadísticas que reunir, y no son ni mucho menos triviales......


así es como recordará después del entrenamiento que no funcionan... en nhs en ts no es una red sino un ga...
 
Vizard:

así recordará después del entrenamiento que no funcionan... en nhs en ts no redes sino ga...

Estoy de acuerdo.... parece que hay mucha libertad, pero lo que se necesita no se puede pellizcar....
 
joo:

Pero el autor del artículo, en mi primera visión "diagonal" (y aún no tengo tiempo para una segunda visión detallada) mira la predicción con RNA desde el ángulo correcto, en términos de Inteligencia - utilizando indicadores, algunos "derivados" de las cotizaciones.

Pero, por pura intuición, dudo que sea posible pronosticar al 98%. El 80% probablemente sí, pero no el 98%. Tal vez el autor haya arrastrado un poco los resultados de la investigación; estoy dispuesto a admitirlo. Pero para verificar estos resultados, hay que hacer los mismos experimentos que el autor; sólo entonces se puede decir algo "al cien por cien".


esto es una ilusión... Integer tenía razón cuando lo dijo - la trama se deja para el pronóstico...

En realidad, todo se verifica con un ejemplo primitivo... puede utilizar cualquier método - desde el segundo o tercer artículo ))))

si muestreamos hasta la primera línea vertical amarilla, obtenemos un 90-95% de lo mismo... pasamos a la siguiente... aplicamos el mismo algoritmo... obtenemos menos... el último tramo (crecimiento) la red nunca lo va a predecir...

todo esto es para predecir varios pasos para 1 VP (entrada del mismo) por supuesto... Si se resaltan los picos de los valles (ciclicidad), en principio se puede captar el crecimiento...

 
nikelodeon:

Acordado.... parece que hay mucha libertad, pero lo que se necesita no se puede picar....

la caja negra es esta nsh...
 
Vizard:


es que hay cierta ciclicidad ( dinámica ) ... así que si esta dinámica se introduce en el modelo (ns, regresión u otros... básicamente da igual) y luego continúa durante un tiempo... entonces bien... si cambia, entonces falla... razones para cambiar la dinámica 2...mercado y filtros DT...


Sí, estoy de acuerdo con usted.

Esta es la segunda explicación del rendimiento: se eligió deliberadamente un periodo para las pruebas en el que la red tuvo éxito localmente mostrando un resultado asombroso. Por cierto, es extraño que la duración del periodo de prueba sea de 150 puntos y no de 200 o, por ejemplo, de 451. Resulta ser un ajuste latente.

Razón de la queja: