Uso de la inteligencia artificial en MTS - página 20

 
usdeur:
solandr escribió (a):
usdeur:
Para continuar - escriba al correo electrónico

Lamentablemente no he entendido nada de la respuesta. ¿Podría escribir algo específico sobre el problema ya aquí en el foro? Si no, ¿qué sentido tiene intercambiar correos electrónicos?
¿Dónde está el propio correo electrónico?
 

Pregunta para los matemáticos:

¿La idea de aplicar una distribución normal multivariante de los parámetros a optimizar es igual al principio de las redes neuronales?

Por favor, explíquelo claramente.

 
¡Hola señores desarrolladores!
Después de enterarme de la existencia de la RNA y su aplicación en el mercado de divisas, quise estudiar este tema (la RNA, que conozco desde hace mucho tiempo), así que lo hice. Por lo tanto, tengo algunas preguntas sobre el uso de la RNA para Forex, las respuestas a las que no he encontrado todavía:
1) En uno de los materiales, que he leído, se escribió que cuando se aprende la RNA es posible "reentrenar el sistema", "reentrenado" RNA da los resultados correctos sólo en situaciones (patrones) que fue entrenado, en otros casos, sus resultados no son verdaderos, es decir.es decir, la RNA se convierte en una tabla trivial y pierde su capacidad de generalización. Mi pregunta es: si tal situación es posible con la RNA que trabaja con FOREC y si la posibilidad de formación de tal situación depende de un modo de entrenamiento (GA, estocástico, método de retropropagación del error) o del tipo de la red (voy a utilizar un modelo multicapa unidireccional). ¿Cómo evitar esta situación?
2) Supongamos que elijo un método trivial de entrenamiento de una red sobre la historia (a) y trabajo después del entrenamiento (b): (a) Tomo un momento de la historia T, que es igual al momento actual T=0, e introduzco un sistema de entrenamiento con precios cercanos X(T+1), X(T+2), X(T+3),... X(T+N) (donde N=const y X es el precio del instrumento en función de T), entonces alimento la previsión realizada por mi sistema X'(T) antes del entrenamiento en ese momento y el valor real de X(T).= X'(T) entonces enseño el sistema a esa situación, luego disminuyo T en uno y repito todo este ciclo de nuevo hasta que T > 0 (cuanto más grande es T, más "antiguo" es el momento de tiempo T, para "un paso" T puede ser, por ejemplo, un día), cuando el sistema está entrenado (b) simplemente espero el "paso" (en nuestro caso esperamos un día), si el pronóstico anterior no fue correcto, enseño el sistema, luego calculo el pronóstico y abro un trato con él, etc..
Los asesores, que trabajan en base a la RNA que he visto en este recurso, se guían por la probabilidad de acierto de la previsión (corregidme si me equivoco), y si esta probabilidad es mayor que una determinada constante B dada por un humano, entonces se abre el trato. ¿Cómo se evalúa la probabilidad en general, por ejemplo con el funcionamiento de la EA?
Yo, personalmente, no sé cómo un EA puede NO abrir operaciones cada 24 horas, por ejemplo (a no ser que los ingresos previstos sean inferiores al spread de un símbolo). ¿Qué datos de entrada puede utilizar el Asesor Experto para entrar en el mercado de forma no estrictamente periódica?
3) En el EA de Ceasar, vi una constante de olvido, no entiendo por qué se necesita una, y cómo implementar el olvido dependiente del método de aprendizaje? ¿No es la capacidad de "olvidar" una propiedad natural de la RNA?

ZZY necesito la opinión de los profesionales sobre el tema ANN, si es demasiado perezoso para escribir, plz, sólo me tire un enlace al recurso (s) respondiendo a cada uno de los artículos en el hilo por separado.
ZZZY No he leído el código fuente, sólo he estudiado las instrucciones para su uso.
 
Aleksey24:

Pregunta para los matemáticos:

¿La idea de aplicar una distribución normal multivariante de los parámetros a optimizar es igual al principio de las redes neuronales?

Por favor, explíquelo claramente.

Qué pregunta tan extraña.
Por favor, explique la pregunta.
 
Mak:
Aleksey24:

Pregunta para los matemáticos:

¿La idea de aplicar una distribución normal multivariante de los parámetros a optimizar es igual al principio de las redes neuronales?

Por favor, explíquelo claramente.

Es una pregunta extraña.
Explica la pregunta.



Creo que la pregunta quiere decir: "¿Vale la pena molestarse con las redes neuronales?"
 
Mak:
Aleksey24:

Pregunta para los matemáticos:

¿La idea de aplicar una distribución normal multivariante de los parámetros a optimizar es igual al principio de las redes neuronales?

Por favor, explíquelo claramente.

Es una pregunta extraña.
Explica la pregunta.



La pregunta probablemente signifique: "¿Merece la pena molestarse con las redes neuronales?".
 
Voy a añadir algo más a mi pregunta (2). ¿Es viable esta estructura de programa, no me refiero a los datos de entrada en sí, sino a mi enfoque del entrenamiento de la RNA, es decir, cuándo llamar a la función de entrenamiento?
 
1. Es posible, y además, que esta sea la situación en la mayoría de los casos.
No depende del método de entrenamiento, puede depender del tipo de red, pero es poco probable.
Cómo evitarlo - la muestra de entrenamiento debe ser cientos, miles de veces mayor que el número de parámetros de peso en la red,
entonces la probabilidad de sobreentrenamiento será menor.

La cuestión es sencilla, el NS es sólo una función del conjunto de entradas y del conjunto de parámetros de ponderación.
Al seleccionar un conjunto de parámetros, el objetivo es obtener una respuesta determinada en la salida de la función: esto es el aprendizaje.
Hay muchos parámetros de ponderación: cientos y miles, de ahí el sobreentrenamiento de las redes en la mayoría de los casos.
 
En mi opinión, no vale la pena andar por las redes :)

Aprender NS es, en realidad, optimizar una función con un enorme número de parámetros (cientos y miles).
No sé qué hacer para evitar el sobreentrenamiento en este caso,
La única solución es tomar una muestra de entrenamiento de 1 a 100 millones de muestras.
Pero no hay garantía...
 
Mak, claramente estás exagerando algo. En lugar de superarlo en cientos o miles de veces, como dices, según la teoría de la RNA con 10 es suficiente. Y los criterios de reentrenamiento (ajuste) son conocidos: se trata de un error mínimo global en la zona de pruebas.

Otra cosa es la arquitectura de la red. Mejores mallas clasificadoras que mallas interpoladoras.
Razón de la queja: