Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1963
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
múltiples neuronas D (tipo rejilla)
error, % = 45,10948905109489
adiós )
Envié al autor de la parrilla mis recortes y mi indignación por correo.¿Qué ha determinado? ¿La autenticidad de los billetes?
Sí
sí
Lógica defectuosa.
Puede haber algunos escollos. Por ejemplo, no puedes utilizar valores negativos en los atributos porque utiliza los binarizados en sus micropruebas. No hay nada sobre esto en la escasa descripción, no muestra ningún error.
puede haber trampas. Por ejemplo, no puede tener valores negativos en los atributos porque utiliza los binarizados en sus micropruebas. No hay nada al respecto en la escasa descripción, no muestra errores.
Interesante enfoque de NS para el filtrado colaborativo
Se pueden tomar herramientas y estrategias de negociación en lugar de personas e identificaciones de películas, y alguna métrica en lugar de calificaciones (expectativa, etc.). A continuación, calcule las variables ocultas para el instrumento y la estrategia. Y luego todo lo que quieras. Adapte el sistema al instrumento o genérelo sobre la marcha con las características necesarias, construya sintéticos para el sistema....
Envié por correo electrónico al autor de la parrilla los recortes y mi indignación
Me pregunto qué le habrá respondido.
Me pregunto qué habrá anotado.
Mezclamos los split más limpios con los menos limpios. Es decir, empeoraremos el resultado en la bandeja, en principio no es importante para nosotros. Pero no es seguro que mejore el resultado de la prueba, es decir, la generalizabilidad. Alguien debería probarlo... Personalmente, no creo que la generalización sea mejor que el caso de los andamios.
Es mucho más fácil limitar la profundidad del árbol y no hacer la última división, deteniéndose en la anterior. Acabaremos con la misma hoja menos clara que si hacemos una división extra. Su opción daría algo intermedio si hiciéramos una división o no. Es decir, por ejemplo, con su método promediará la hoja en el 7º nivel de profundidad. Será ligeramente más limpio que la hoja de nivel de profundidad 6. Creo que la generalización no cambiará mucho, y es mucho trabajo probar la idea. También puedes promediar algunos árboles con niveles de profundidad 6 y 7 - obtendrás más o menos lo mismo que tu metodología.
Probablemente no aclaré antes que debe quedar al menos un 1% de indicadores en la hoja en las muestras pequeñas y 100 en las grandes, por lo que, por supuesto, el desglose no será hasta el punto de no tener errores en la hoja en ninguna clase.
Parece que no entiendes el último paso - yo lo veo como una evaluación estadística de la muestra del 1% restante - en esta muestra observamos que el resultado mejora con divisiones por diferentes predictores, obtenemos información del subespacio, por ejemplo:
Si A>x1, el objetivo 1 será correcto en un 40%, lo que supone el 60% de la submuestra
Si B>x2, el objetivo 1 se identificará correctamente con un 55%, lo que supone el 45% de la submuestra.
Si A<=x1, el objetivo 1 estará correctamente definido en un 70%, es decir, el 50% de la submuestra
Cada una de estas divisiones tiene un factor de importancia (aún no he decidido cómo calcularlo), y la última división también tiene uno.
y así sucesivamente, digamos hasta 5-10 predictores, entonces al aplicar, si llegamos a la última división, sumamos los coeficientes (o usamos un método más complicado de suma), y si la suma de coeficientes supera el umbral, entonces la hoja se clasifica 1, de lo contrario cero.
Una forma sencilla de ponerlo en práctica es construir forzosamente un bosque hasta la penúltima división, y luego excluir los predictores ya seleccionados de la muestra, para que se seleccionen los nuevos. O simplemente, tras construir el árbol, filtrar la muestra por hojas y recorrer cada predictor por sí mismo en busca de la mejor división que cumpla el criterio de exhaustividad y precisión.
Y, el resultado en la muestra de entrenamiento mejorará si la otra clase "0" significa ninguna acción y no la entrada contraria, de lo contrario puede haber tanto mejora como deterioro.