Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1963

 
Maxim Dmitrievsky:

múltiples neuronas D (tipo rejilla)

error, % = 45,10948905109489

adiós )

Envié al autor de la parrilla mis recortes y mi indignación por correo.
¿Qué ha determinado? ¿La autenticidad de los billetes?
 
Valeriy Yastremskiy:
¿Qué ha determinado? ¿La autenticidad de los billetes?

 
Maxim Dmitrievsky:

Lógica defectuosa.
 
Valeriy Yastremskiy:
Lógica defectuosa.

Puede haber algunos escollos. Por ejemplo, no puedes utilizar valores negativos en los atributos porque utiliza los binarizados en sus micropruebas. No hay nada sobre esto en la escasa descripción, no muestra ningún error.

 
Maxim Dmitrievsky:

puede haber trampas. Por ejemplo, no puede tener valores negativos en los atributos porque utiliza los binarizados en sus micropruebas. No hay nada al respecto en la escasa descripción, no muestra errores.

La corrupción se produce a menudo sobre la base de síntomas no explícitos. Y es un problema detectarlos en una lógica aparentemente correcta.
 
Los pesos por un lado y la binaridad por otro. De ahí venimos.
 

Interesante enfoque de NS para el filtrado colaborativo

Se pueden tomar herramientas y estrategias de negociación en lugar de personas e identificaciones de películas, y alguna métrica en lugar de calificaciones (expectativa, etc.). A continuación, calcule las variables ocultas para el instrumento y la estrategia. Y luego todo lo que quieras. Adapte el sistema al instrumento o genérelo sobre la marcha con las características necesarias, construya sintéticos para el sistema....

 
Maxim Dmitrievsky:
Envié por correo electrónico al autor de la parrilla los recortes y mi indignación

Me pregunto qué le habrá respondido.

 
mytarmailS:

Me pregunto qué habrá anotado.

Nada hasta ahora. Tiene que haber cierta regularidad en las muestras, de eso se trata. Es un enfoque diferente. Creo que en los conjuntos regulares y en deben ser enseñados. Es decir, cuanto menor sea la entropía de la fila, mejor será la res, y en ese conjunto de datos las muestras se barajan aleatoriamente. En términos oabochanos, lo importante no es tanto el patrón como la secuencia
 
elibrarius:
Mezclamos los split más limpios con los menos limpios. Es decir, empeoraremos el resultado en la bandeja, en principio no es importante para nosotros. Pero no es seguro que mejore el resultado de la prueba, es decir, la generalizabilidad. Alguien debería probarlo... Personalmente, no creo que la generalización sea mejor que el caso de los andamios.

Es mucho más fácil limitar la profundidad del árbol y no hacer la última división, deteniéndose en la anterior. Acabaremos con la misma hoja menos clara que si hacemos una división extra. Su opción daría algo intermedio si hiciéramos una división o no. Es decir, por ejemplo, con su método promediará la hoja en el 7º nivel de profundidad. Será ligeramente más limpio que la hoja de nivel de profundidad 6. Creo que la generalización no cambiará mucho, y es mucho trabajo probar la idea. También puedes promediar algunos árboles con niveles de profundidad 6 y 7 - obtendrás más o menos lo mismo que tu metodología.

Probablemente no aclaré antes que debe quedar al menos un 1% de indicadores en la hoja en las muestras pequeñas y 100 en las grandes, por lo que, por supuesto, el desglose no será hasta el punto de no tener errores en la hoja en ninguna clase.

Parece que no entiendes el último paso - yo lo veo como una evaluación estadística de la muestra del 1% restante - en esta muestra observamos que el resultado mejora con divisiones por diferentes predictores, obtenemos información del subespacio, por ejemplo:

Si A>x1, el objetivo 1 será correcto en un 40%, lo que supone el 60% de la submuestra

Si B>x2, el objetivo 1 se identificará correctamente con un 55%, lo que supone el 45% de la submuestra.

Si A<=x1, el objetivo 1 estará correctamente definido en un 70%, es decir, el 50% de la submuestra

Cada una de estas divisiones tiene un factor de importancia (aún no he decidido cómo calcularlo), y la última división también tiene uno.

y así sucesivamente, digamos hasta 5-10 predictores, entonces al aplicar, si llegamos a la última división, sumamos los coeficientes (o usamos un método más complicado de suma), y si la suma de coeficientes supera el umbral, entonces la hoja se clasifica 1, de lo contrario cero.


Una forma sencilla de ponerlo en práctica es construir forzosamente un bosque hasta la penúltima división, y luego excluir los predictores ya seleccionados de la muestra, para que se seleccionen los nuevos. O simplemente, tras construir el árbol, filtrar la muestra por hojas y recorrer cada predictor por sí mismo en busca de la mejor división que cumpla el criterio de exhaustividad y precisión.

Y, el resultado en la muestra de entrenamiento mejorará si la otra clase "0" significa ninguna acción y no la entrada contraria, de lo contrario puede haber tanto mejora como deterioro.

Razón de la queja: