¿Hay algún patrón en el caos? ¡Intentemos encontrarlo! Aprendizaje automático a partir de una muestra concreta. - página 12

 
elibrarius #:

¿Selecciona estos modelos basándose en el mejor de la prueba?

¿O entre los muchos mejores de la prueba está también el mejor del examen?

Específicamente hubo selección simplemente por el mejor en el examen.

 
Aleksey Vyazmikin #:

Específicamente hubo selección simplemente por los mejores en el examen.

Yo también fui el mejor en el examen. No habrá examen antes de entrar en el comercio real. O más bien será por dinero real....

Ahora hice una selección de signos por valking forward (10000 a 5000 y una trayne como la tuya y una prueba), en el examen se fusionan ambas.

Hay que hacer la selección de alguna manera en el test, para que se conserve la aprendibilidad en el examen.

 
elibrarius #:

Yo también mostré el mejor en el examen. No habrá examen antes de entrar en el comercio real. O más bien, será por dinero real....

Ahora he hecho una selección de señales por valking forward (10000 hasta 5000 y una trayne como la tuya y otra de prueba), en el examen ambas se fusionan.

Hay que hacer la selección de alguna manera en el test, para que se conserve la aprendibilidad en el examen.

De momento sólo se puede aumentar la probabilidad de selección correcta, por desgracia. Es por eso que estoy considerando la negociación por lotes, cuando muchos modelos se seleccionan a la vez, con la esperanza de que la precisión media será suficiente y voy a ser capaz de obtener un beneficio medio.

 
Es necesario encontrar características que funcionen entre cientos de miles de sus características, y luego entender por qué funcionan. Y luego hay que escribir diferentes CTs sobre ellos no por fuerza bruta, sino seleccionando hiperparámetros óptimos.
De lo contrario, seguirá resultando ajustado, cuando tenga que elegir entre cientos de modelos según el examen.
Lo más importante es entender por qué funcionan las características, al menos aproximadamente. Luego se pueden mejorar, o ponerles etiquetas.

Apilar un montón de modelos poco claros tampoco es una buena idea. Porque tendrás que volver a entrenar un montón de cosas desconocidas otra vez.

Hay que hacer fuerza bruta con la selección de características para elegir las buenas y luego meditar por qué funcionan. Entonces quedará claro hacia dónde ir a continuación. La fuerza bruta en sí misma es ineficaz para la preparación de CT, debería considerarse como exploratoria.
 
Maxim Dmitrievsky #:
Es necesario encontrar características que funcionen entre cientos de miles de sus características, y luego entender por qué funcionan. Y luego hay que escribir diferentes CTs sobre ellos no por fuerza bruta, sino seleccionando hiperparámetros óptimos.
De lo contrario, seguirá resultando ajustado, cuando tenga que elegir entre cientos de modelos según el examen.
Lo más importante es entender por qué funcionan las características, al menos aproximadamente. Luego se pueden mejorar, o ponerles etiquetas.

Apilar un montón de modelos poco claros tampoco es una buena idea. Porque tendrás que volver a entrenar un montón de cosas desconocidas otra vez.

Hay que hacer fuerza bruta con la selección de características para elegir las buenas y luego meditar por qué funcionan. Entonces quedará claro hacia dónde ir a continuación. La fuerza bruta en sí misma es ineficaz para la preparación de CT, debería considerarse como exploratoria.
Estoy de acuerdo. La comprensión del proceso puede lograrse desde distintos ángulos)
 
Maxim Dmitrievsky #:
Es necesario encontrar características que funcionen entre cientos de miles de sus características, y luego entender por qué funcionan. Y luego hay que escribir diferentes CTs sobre ellas no por fuerza bruta, sino seleccionando hiperparámetros óptimos.
De lo contrario, seguirá resultando ajustado, cuando elija entre cientos de modelos según el examen.
Lo más importante es entender por qué funcionan las características, al menos aproximadamente. Entonces se pueden mejorar, o se pueden mejorar las etiquetas que se les asignan.

Tampoco es buena idea empaquetar un montón de modelos desconocidos. Porque entonces tendrás que volver a entrenar un montón de cosas desconocidas otra vez.

Hay que hacer fuerza bruta con la selección de características para elegir las buenas y luego meditar por qué funcionan. Entonces se sabrá a dónde ir a continuación. La fuerza bruta en sí misma es ineficaz para la preparación de CT, debería considerarse como exploratoria.

La cuestión es que la tarea de comprender la razón de la eficacia de los predictores es extremadamente difícil y se sitúa en el campo de la interpretación del comportamiento del mercado, ¿o tiene usted un enfoque más fiable? Además, los predictores funcionan en grupo porque son primitivos, y cómo reunir predictores que funcionen en grupo no es una cuestión sencilla, si es que lo es - hasta ahora lo obvio es utilizar un árbol de decisión. Y para construir árboles de decisión efectivos, es necesario reducir significativamente la muestra, y mejor ya alimentar sólo aquellos predictores que presumiblemente forman una relación efectiva. Y aquí el método de búsqueda de modelos puede ser muy útil, ya que el modelo utiliza, por regla general, sólo una parte de los predictores.

Encajar o no encajar: creo que todas las acciones de ajuste de probabilidades son encajar. Otra cosa es que la historia de la distribución de estas probabilidades sobre los predictores puede repetirse, o puede olvidarse durante un largo periodo de tiempo. Y aquí es importante tener algún método para determinar la transición de estas etapas.

 
Aleksey Vyazmikin #:

Entrenar lo que se llama out of the box con CatBoost, con los ajustes de abajo - con Seed brute force da esta distribución de probabilidad.

1. Tren de muestreo

2. Selección de pruebas

3. Muestra de examen

Como puede ver, el modelo prefiere clasificar casi todo por cero, por lo que hay menos posibilidades de equivocarse.

Alexey, entrenar es esencialmente ajustar, ¿no?

 
Renat Akhtyamov #:

Alexei, la formación es esencialmente la adaptación, ¿no?

Esencialmente, sí.

La optimización en un probador consiste en cambiar las métricas sobre las que opera el algoritmo, y el aprendizaje en los métodos MO (árboles y sus variantes, NS) consiste en cambiar el algoritmo evaluando e interpretando la historia de las métricas.

Simbiosis, sería épico.....

 
Renat Akhtyamov #:

Alexei, la formación es esencialmente la adaptación, ¿no?

Enseñar a los escolares también es ajustar sus conocimientos a los ya existentes)

 
Aleksey Vyazmikin #:

Esa es la cuestión, la tarea de entender la razón del rendimiento de los predictores es extremadamente difícil, y se encuentra en el ámbito de la interpretación del comportamiento del mercado, ¿o tiene usted un enfoque más sólido? Además, los predictores funcionan en grupo, porque son primitivos, y cómo reunir predictores que funcionen en grupo no es una cuestión sencilla, si es que lo es - hasta ahora lo obvio es el uso de un árbol de decisión. Y para construir árboles de decisión eficaces, es necesario reducir significativamente la muestra, y mejor ya alimentar sólo aquellos predictores que presumiblemente forman una relación eficaz. Y aquí el método de búsqueda de modelos puede ser muy útil, ya que el modelo utiliza, por regla general, sólo una parte de los predictores.

Encajar o no encajar: creo que todas las acciones de ajuste de probabilidades son encajar. Otra cosa es que la historia de la distribución de estas probabilidades sobre los predictores puede repetirse, o puede olvidarse durante un largo periodo de tiempo. Y aquí es importante tener algún método para determinar la transición de estas etapas.

pequeños grupos de 5 a 10 para entrenar.

De 1 a 3 es mejor.

Si ninguno de ellos produce nada, ¿qué sentido tiene hablar de una conexión mítica entre ellos? basura + basura...

Razón de la queja: