Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 4
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
NS lo hizo muy bien.
Random Forest no podría manejar tal tarea, donde la interacción de un conjunto de variables. Y la significación individual de cada predictor era intencionadamente cero.
No veo ninguna prueba de que NS haya hecho frente a nada.
El sobreaprendizaje es un mal mundial en la ciencia y en la construcción de modelos en particular.
Por lo tanto, se necesita un error para tres conjuntos:
Los dos últimos conjuntos están sin mezclar al llegar a la terminal, las bases detrás de la barra.
Debería haber más o menos el mismo error en los tres conjuntos. Al mismo tiempo hay que fijar el conjunto de predictores que se toman al entrenar el modelo.
Random Forest no podría manejar un problema de este tipo, donde la interacción de un conjunto de variables. Y la significación individual de cada predictor era intencionadamente cero.
Su idea de tener en cuenta la interacción entre predictores es una revolución en la estadística. Hasta ahora, creía que la interacción entre predictores era mala. No sólo los propios predictores suelen ser no estacionarios, sino que también intentamos dar cuenta de las relaciones entre estos procesos aleatorios no estacionarios.
En el aprendizaje automático, se considera obligatorio deshacerse de las variables que interactúan. Además, existen algoritmos muy eficaces, como el método de componentes principales, que permite eliminar la interacción y convertir el conjunto de predictores que interactúan en un conjunto de predictores independientes.
No veo ninguna prueba de que NS haya superado nada.
El sobreaprendizaje es un mal mundial en la ciencia y en la construcción de modelos en particular.
Por lo tanto, se necesita un error para tres conjuntos:
Los dos últimos conjuntos están sin mezclar al llegar a la terminal, bases detrás de la barra.
Debería haber más o menos el mismo error en los tres conjuntos. Dicho esto, tendrás que fijar el conjunto de predictores que tomas al entrenar el modelo.
Digámoslo así. A pesar de que esto no forma parte de la tarea. Voy a establecer una muestra de validación en la que ejecutar el modelo entrenado y medir la precisión de la predicción del resultado.
Pero, de nuevo, esto no es necesario. Nótese que he vuelto a escribir la validación en base al patrón inferido.
Un patrón incrustado en los datos:
No veo ninguna prueba de que NS haya superado algo.
Neuronka resolvió este problema, atachment log con el código de Rattle. Hay un par de cambios en el código cuando se llama a la neurona - Aumenté el número máximo de iteraciones, y eliminé las conexiones, que van desde la salida de la entrada directamente a la salida, pasando por alto la capa media (skip=TRUE). Porque estas dos limitaciones lo estropean todo.
Hice la validación en el nuevo archivo, los errores en ambos casos son casi 0% (sólo hay un error al validar desde el segundo archivo).
Pero como la NS es como una caja negra, no hay forma de conocer la lógica de la solución. Puedes mirar los pesos, determinar el valor absoluto medio de cada entrada y dibujar un diagrama. Y uno sabrá que 1, 3, 5, 7, 9, 11 son más importantes que el resto. Sin embargo, el resto de entradas también se utilizan por alguna razón; los pesos cero no se encuentran en ninguna parte. En otras palabras, resulta que el aprendizaje tiene lugar al principio, y luego podemos determinar las entradas importantes.
Neuronka resolvió este problema, atachment log con el código de Rattle. Hay un par de cambios en el código cuando se llama a la neurona - he aumentado el número máximo de iteraciones, y he eliminado las conexiones que van directamente de la entrada a la salida, saltándose la capa intermedia (skip=TRUE). Porque estas dos limitaciones lo estropean todo.
Hice la validación en el nuevo archivo, los errores en ambos casos son casi 0% (sólo hay un error al validar desde el segundo archivo).
Pero como la NS es como una caja negra, no hay forma de conocer la lógica de la solución. Puedes mirar los pesos, determinar el valor absoluto medio de cada entrada y dibujar un diagrama. Y uno sabrá que 1, 3, 5, 7, 9, 11 son más importantes que el resto. Sin embargo, el resto de entradas también se utilizan por alguna razón; los pesos cero no se encuentran en ninguna parte. En otras palabras, es al revés: primero aprendemos y luego identificamos las aportaciones importantes.
No veo ninguna prueba de que NS haya superado nada.
El sobreaprendizaje es un mal mundial en la ciencia y en la construcción de modelos en particular.
Por lo tanto, se necesita un error para tres conjuntos:
Los dos últimos conjuntos están sin mezclar al llegar a la terminal, bases detrás de la barra.
Debería haber más o menos el mismo error en los tres conjuntos. Al hacerlo, tendrá que fijar el conjunto de predictores que toma al entrenar el modelo.
¿Es necesario demostrar lo evidente? Durante el entrenamiento, los pesos de las entradas que llevan datos contradictorios disminuyen, es decir, podemos decir que los datos contradictorios entrantes se bloquean.
En este caso no hay problema de reentrenamiento, porque la red entrenada no se utiliza para otros fines.
La cuestión es si este método merece la pena. No es un poco de artillería pesada.
La cuestión es si este método es apropiado. ¿No es la artillería un poco pesada?
Puedes probar de otra manera. Pero creo que el remedio se ajusta al problema.
Hace el trabajo, y lo hace bien. Pero siempre me pregunto si hay algo más eficaz y sencillo.