Discusión sobre el artículo "Neuroredes gratis y a mogollón: NeuroPro y MetaTrader 5" - página 3
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
En cuanto al artículo en sí, no NS en general. ¿Cuál es el truco? El número de coeficientes que hay que ajustar es comparable a la cantidad de historia.
Tomemos el número de coeficientes igual a la cantidad de historia. Creo que entonces el ajuste será perfecto. No tendrá ni una sola operación perdedora y exprimirá al máximo la historia.
Si enfocamos la construcción NS como una selección de un número salvaje de coeficientes, no necesitamos algo tan bueno.
Aquí hay otra utilidad: la compresión de la información con pérdidas. Había mucha historia, hay menos coeficientes que describen aproximadamente la historia. Por otra parte, hay muchos algoritmos de compresión, incluso sin pérdida, con mucho mejor rendimiento.
En cuanto al artículo en sí, no NS en general. ¿Cuál es el truco? El número de coeficientes que hay que ajustar es comparable a la cantidad de historia.
Tomemos el número de coeficientes igual a la cantidad de historia. Creo que entonces el ajuste será perfecto. No tendrá ni una sola operación perdedora y exprimirá al máximo la historia.
Si te acercas a la construcción de NS como una selección de un número salvaje de coeficientes, lo que el infierno es la necesidad de una cosa tan buena.
Probablemente no has leído (con atención) el artículo. El número de entradas es 24 (marco temporal de una hora), el número de neuronas en una capa es 20, y hay 3 capas.
Y el ejemplo de la historia es 5k bares. Establecer 10k bares, el número de coeficientes seguirá siendo el mismo.
Si usted no entiende lo que estamos hablando, entonces usted realmente no lo necesita.
Probablemente no has leído (con atención) el artículo. El número de entradas es de 24 (marco de tiempo por hora), las neuronas en una capa - 20, capas - 3.
Y el ejemplo de la historia es 5k bares. Establecer 10k bares, el número de coeficientes seguirá siendo el mismo.
Si usted no entiende lo que estamos hablando, realmente no lo necesita.
¡Puedes engañarte tanto como quieras!
Mira el código fuente y cuenta el número de coeficientes ajustados. Bla, bla, bla en la descripción de NS, pero la esencia es el código fuente.
Duplica la cantidad de historia y observa cómo se desploman los coeficientes. Y así con cada aumento.
La simulación del orgasmo del artículo es el resultado que se muestra. Y el hecho de que se obtenga de una manera horrible no es lo que nadie está diciendo.
Vamos a hacerlo sencillo. Te daré el código fuente de un asesor con mil coeficientes. Y yo te daré un trozo de historia comparable. No diré que es NS u otra cosa. Sólo la fuente y un trozo de historia.
¿También cambiarás de opinión sobre esta cal una vez que te diga que es NS o método científico avanzado? Fíjate en el fondo.
Tomemos el unicum dimeon. Su Asesor Experto no contiene más de una docena de coeficientes ajustables. La cantidad de historia es miles de veces más de lo que utilizamos para ajustar estos coeficientes. Así que el NS construido en la cabeza de dimeon a veces puede producir grandes resultados. Por eso no se ensañan contra todos los NS. Pero el artículo engaña al lector.
Por otra parte, nuestro pipsarian fresco no utiliza el principio neuronal de la construcción de un algoritmo de negociación en absoluto. No utiliza el principio más estúpido de la suma y la multiplicación, como en NS. Tal vez, esta es la razón de la sorprendente diferencia entre sus resultados y los clásicos en la forma de NS.
Nombre curioso: ENCOG - machine learning... Está de moda.
Las herramientas enumeradas aquí son sólo una parte del aprendizaje automático.
Reírse sin motivo es señal de estupidez © Popular saying
Para los especialmente dotados en aprendizaje automático:
La risa sin motivo es señal de estupidez © Refrán popular
Para expertos en aprendizaje automático especialmente dotados:
1. En CRAN no hay problemas, bueno, ninguno en absoluto. Más de dos años todo en codobase.
2. La cantidad habla a favor de la diversidad de enfoques y el rápido desarrollo. La calidad de los paquetes en CRAN es excelente.
3. WEKA es uno de.... Si estamos hablando de la elección de los paquetes de aprendizaje automático que se pueden utilizar en el comercio, entonces caret. Y para empezar tomamos Rattle. Si empiezas desde cero, puedes ponerlo en marcha en unos 15 minutos. He publicado los resultados de comparar NS y bosques aleatorios arriba. NS da resultados más que modestos. Incluso escribí un artículo. Prueba Rattle. Coge 2-3 paquetes como máximo y serás feliz. Y abandona tu NS para siempre. Para empezar, puedo recomendar otro aditamento.
2. La cantidad muestra la diversidad de enfoques y el rápido desarrollo. La calidad de los paquetes en CRAN es excelente.
Más bien al contrario, ya que algunos paquetes simplemente duplican métodos de otros paquetes. Por ejemplo, todos los SVM no son más que ports de la misma librería taiwanesa libsvm. Así que no hay absolutamente ninguna diferencia si SVM está incrustado en Cran, Weka, Encog o cualquier otro paquete. Los resultados serán idénticos con la misma configuración.
Si estamos hablando de la elección de los paquetes de aprendizaje automático que se pueden utilizar en el comercio, entonces caret.
Una vez más, debes elegir herramientas específicas para tareas específicas. Trading no es más que un nombre generalizado para muchas estrategias y tácticas bursátiles. Por eso es imposible englobarlo todo bajo un mismo paraguas.
Más arriba he publicado los resultados de la comparación entre NS y bosques aleatorios.
No son resultados, son chorradas, como la temperatura media del hospital ajustada a la muestra de entrenamiento.
Los resultados son cuando, como mínimo, se divide la muestra en muestras de entrenamiento y de prueba y, como máximo, se aplica la validación cruzada.
Creo que voy a defender el NS. Que de repente se hayan puesto de moda los bosques aleatorios no significa que el NS sea peor. Son los mismos huevos, sólo que de perfil. Para hacer una comparación más o menos adecuada, coge un comité de mallas, activa el bousting, y obtendrás el mismo bosque aleatorio. Los NS son conocidos por permitir implementar casi cualquier otro algoritmo.
En cualquier caso, el 99% del éxito no reside en la herramienta, sino en la elección y preparación de los datos.
Creo que voy a defender el NS. Que de repente se hayan puesto de moda los bosques aleatorios no significa que el NS sea peor.
Random Forest no es un fenómeno de moda, sino una herramienta que puede dar resultados aceptables al primer intento. Este clasificador es utilizado tanto por principiantes como por usuarios experimentados. Los principiantes lo utilizan como herramienta básica, porque el método es muy sencillo. Y los usuarios más experimentados empiezan a resolver problemas con RF para entender en qué dirección seguir avanzando.
En cualquier caso, el 99% del éxito no está en la herramienta, sino en la elección y preparación de los datos.
No se puede hacer un gran negocio de un gran negocio © People's saying
Sería interesante ver cómo vas a resolver el problema de la regresión múltiple utilizando algún clasificador binario...
No se trata de resultados, sino de algunas burradas, como la temperatura media del hospital ajustada a la muestra de entrenamiento.
Se habla de resultados cuando, como mínimo, la muestra se divide en muestras de entrenamiento y de prueba y, como máximo, se aplica la validación cruzada.
Yo no hago gilipolleces.
Pruebas.
Los resultados publicados siempre se refieren a datos "fuera de la muestra de entrenamiento". Esto se hace de la siguiente manera en Rattle
1. el conjunto original se divide en tres partes: 70-15-15%
2. el entrenamiento se realiza sobre la parte del 70%, que se denomina entrenamiento. Aquí hay un matiz muy significativo. De este 70%, se seleccionan aleatoriamente unos 2/3 de los datos de entrenamiento, es decir = 70% * 2/3. El entrenamiento se realiza sobre estos datos. La información sobre el rendimiento del modelo se obtiene sobre el 70% * 1/3 restante de los datos de la muestra de entrenamiento, que por supuesto también es un conjunto aleatorio de filas. Esta parte se denomina OOB (out of bag). Es decir, aunque formalmente se utilizó el mismo conjunto de datos para el entrenamiento y la evaluación, se tomaron de él filas diferentes para el entrenamiento y la evaluación.
Después puede ir a la pestaña Evaluar, donde puede utilizar el modelo entrenado en las dos veces restantes 15% y compararlo con OOB. Si los resultados son los mismos, hay esperanza. De lo que se deduce que, aunque Rattle es una herramienta para probar ideas, la calidad de estas pruebas es mucho mayor que en el artículo que nos ocupa (que se disculpe el autor).
Y personalmente para su dulce: el resultado obtenido en mi artículo y en este artículo no se puede confiar, porque no hay ninguna prueba de sobreentrenamiento (overfitting) del modelo, y los tres conjuntos para probar fuera de la muestra de entrenamiento enumerados por mí no son tal prueba. Es decir, necesitamos criterios que sean satisfechos por el conjunto de variables iniciales en el sentido de que el modelo que utiliza este conjunto de variables pueda ser probado de acuerdo con el esquema anterior y los resultados de tales pruebas puedan ser fiables.