¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 69
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Si no fuera por dumas, ahora mismo estaría perdiendo el tiempo con el dios MO Gizlyk :)
m oskitman
Algo así como posos de café del siglo 21
En general - sí, pero no se suelta. Usted está sentado allí, desmontando TC manual de alguien, entonces: "Hombre, la última vez que no probé esto y lo otro" - y aquí de nuevo.
F orester #: Con los árboles se resuelve por divisiones - sólo las hojas con valor predictor < 0,1 y > 0,5 no producirá señales.
No voy a llegar a ellos.
M axim Kuznetsov#:
¿alguien tiene algo sobre NN y DL ? al menos alguien aquí...
---
bueno, excepto gráficos en python y pruebas ajustadas:-) Al menos "EA trades on demo and plus".
---
o se tiene la sensación de que esto es una rama sin salida de la evolución y toda la producción de mashobuch y neuronas está en publicidad, spam y "mutual_sending".
Comercio áspero - resulta. Pero una suave, para que pueda ir al mercado - todavía no.
Si no fuera por dumdums, ahora mismo estaría perdiendo el tiempo con el dios MO - Gizlyk :)
Pensar es malo para tu cuerpo, toma prestada la experiencia ))
Pensar es malo para el cuerpo, lo digo por experiencia ))
También es cierto
La entradano es la fuerza de la señal
Su fuerza le viene dada por los pesos. Pero el propio número de entrada a priori ya (!) lleva en sí mismo un elemento de fuerza - su factor cuantitativo.Anteriormente he planteado el problema de la comprensión de los datos de entrada. Al dar un número a la entrada, ya dotamos inicialmente a la entrada de un valor de fuerza. Esto es un error, porque la esencia de nuestro NS es sólo encontrar el factor de fuerza y distribuirlo entre las entradas.
No entiendo muy bien, ¿estás enseñando con un maestro?
En optimización MT5. Y lo probé con un profesor en NeuroPro. La esencia del problema teórico se reduce a lo siguiente:Si el rango de entrada es de 0 a 1, el NS nunca encontrará el grial si los patrones de drenaje en el rango superior están enterrados en los números del rango inferior, porque tendrá que "ahogar" el superior, y con pesos estáticos todo lo que es inferior también irá bajo el cuchillo.
Como resultado, el sumador obtendrá un número que consiste tanto en los datos de drenaje como en los datos de trabajo - 50/50.
Ysi el rango de entrada es de -1 a 1, y el grial está en algún lugar en el medio - lo mismo sucederá: el NS amortiguará los extremos y el grial será lavado.Pero si se crea un módulo de filtrado, cuando el número 0,9 se "convertirá" en 0,01, o en 0 en absoluto.
Yel número 0,63 en 0,99 y así sucesivamente - Supongo que este método es al menos mejor que el estándar, y como máximo - potencial . Y ya estos números deben ser alimentados a la NS, que creará reglas para trabajar con datos de entrada "limpiado" de ruido .
La esencia del problema teórico se reduce a lo siguiente:si el rango de entrada es de 0 a 1, el NS nunca encontrará el grial en los patrones de drenaje en el rango superior si está enterrado en los números del rango inferior, porque tendrá que "ahogar" el superior, y en los pesos estáticos todo lo que es inferior también pasará bajo el cuchillo.
Como resultado, el sumador obtendrá un número que consiste tanto en datos de drenaje como en datos de trabajo - 50/50 y resulta.
Ysi el rango de entrada es de -1 a 1, y el grial está en algún lugar en el medio - lo mismo sucederá: el NS amortiguará los extremos y el grial será lavado. Pero si se crea un módulo de filtrado, cuando el número 0,9 se "convertirá" en 0,01, o en 0 en absoluto.
Yel número 0,63 en 0,99 y así sucesivamente - Supongo que este método es al menos mejor que el estándar, y como máximo - potencial . Y ya estos números deben ser alimentados a la NS, que creará reglas para trabajar con datos de entrada "limpiado" de ruido .
Sí... creo que veo a lo que te refieres (corrígeme si está mal). Una neurona de un MLP convencional resume los productos de las entradas que recibe y los pesos correspondientes, desplaza la suma y luego la transforma de forma no lineal (el desplazamiento es el mismo para cada neurona independientemente de las señales que le lleguen). Es decir, es imposible desplazar cada entrada por separado de forma lineal. Si la tarea consiste en corregir los valores de entrada a la red, se puede mejorar un poco el MLP añadiendo una capa de corrección adicional (sin función de activación) entre la capa de entrada y la primera capa oculta, cuya tarea consiste sólo en corregir linealmente los valores de la capa de entrada. Resulta que, para cada entrada de la red, se necesitaría un peso adicional y un desplazamiento adicional. De hecho, sólo se necesita una de estas capas adicionales, y entonces todo sigue igual.
Interesante, no es difícil de implementar.
Está claro que si se supiera de antemano cómo se deben convertir los valores de entrada, se tomarían y convertirían como dos bytes a enviar, pero si se desconoce, tiene sentido una capa adicional de este tipo.
IMLP -MLP mejoradoSi el rango de entrada es de 0 a 1, el NS nunca encontrará el grial si los patrones de ciruela del rango superior están enterrados en los números del rango inferior, porque tendrá que "atascar" el superior, y con pesos estáticos todo lo que esté más abajo también pasará bajo el cuchillo. Como resultado, el sumador obtendrá un número que consiste tanto en datos de ciruela como de trabajo - 50/50.
Su problema tiene fácil solución: Divida cada ficha en el número necesario de rangos (3,5,10,50...) y aliméntelos como fichas separadas. Cada rango tendrá sus coeficientes ajustados individualmente.
Si tiene un grial escondido en el tercio superior, será encontrado por esta ficha individual.
Sí... creo que entiendo de lo que hablas (corrígeme si es incorrecto). Una neurona de un MLP convencional suma los productos de las entradas que le llegan y los pesos correspondientes, desplaza la suma y luego la transforma no linealmente (el desplazamiento es el mismo para cada neurona independientemente de las señales que le lleguen). Es decir, es imposible desplazar cada entrada por separado de forma lineal. Si la tarea es corregir los valores de entrada a la red, se puede mejorar un poco el MLP añadiendo una capa de corrección adicional (sin función de activación) entre la capa de entrada y la primera capa oculta, cuya tarea es sólo corregir linealmente los valores de la capa de entrada. Resulta que, para cada entrada de la red, se necesitaría un peso adicional y un desplazamiento adicional. De hecho, sólo se necesita una de estas capas adicionales, y entonces todo sigue igual.
Interesante, no es difícil de implementar.
Está claro que si se supiera de antemano cómo se deben convertir los valores de entrada, se tomarían y convertirían como dos bytes a enviar, pero si se desconoce, una capa adicional de este tipo tiene sentido.
IMLP -MLP mejoradoSí, este es un tipo de filtrado La forma más fácil y también la más eficiente: basta con añadir una condición "if". Si N1 < IN < N2, entonces IN = Filter[i]; Yo lo hice así con un bucle
Si la entrada se alimenta con todo tipo de límites de canal, que tienen altas probabilidades de correcciones de los límites, el rango se puede dividir en 2 partes, una de las cuales será ignorado (anulado), y el segundo será más intensamente corregido. Esta forma es la más rápida de ajuste (reentrenamiento) que puede ser.
Aunque no, la tabla Q es lo primero, y este método es lo segundo. MLP, por otro lado, es una... herramienta muy específica para forex. Incluso creo que es disruptiva.
F orester #:
Su problema se resuelve fácilmente: Divida cada característica en el número necesario de rangos (3,5,10,50...) y presentarlos como características separadas. Cada rango tendrá sus coeficientes ajustados individualmente.
Si tiene un grial escondido en el tercio superior, será encontrado por esta ficha individual.
¿Ha habido suerte con NN y DL? ¿Alguien aquí...
---
excepto con python charts y pruebas ajustadas:-) Al menos "EA trades on demo and plus".
---
o se tiene la sensación de que esto es una rama sin salida de la evolución y toda la producción de mashobuch y neuronas está en la publicidad, el spam y "mutual_sending".
Supongo que las dudas son infundadas. No juzgues el progreso por falsos pitonisos del grial y ya veremos.
MLP, por otro lado, es una... herramienta muy específica para forex. Incluso creo que es destructivo.
Si se mira bien, yo diría que, por el contrario, es la más adaptada para DEM. Todo lo demás es un puro ajuste a etiquetas imaginarias, que en realidad no significan nada y son producto de la imaginación de enfoques deterministas en la agrupación que no tienen nada que ver con el mercado en vivo.