Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3337

 
Aleksey Vyazmikin #:

El precio que hay que pagar por la versatilidad.

Es una lástima que CatBoost tenga limitaciones importantes en la conversión de modelos.

Empezó a hurgar más en la importancia de los objetos, hay todo un artículo ofrecido allí. Voy a ver lo que puede dar.
 
Maxim Dmitrievsky #:
Empecé a husmear más sobre la importancia de los objetos, hay todo un artículo sugerido. Voy a ver lo que tiene que ofrecer.

Me alegra ver que sigues interesado. Escribe sobre tus progresos en la investigación de la utilidad de este enfoque.

 
Forester #:

Creo que intentaré recrear la estimación de las hojas teniendo en cuenta la corrección de errores por pasos haciendo un reparto después de cada hoja (árbol).

Pero aún así, no parece funcionar de la misma manera cuando categorising..... No entiendo muy bien las fórmulas.

Según he entendido en la primera iteración se construye una función aproximada de aproximación de loglosses sobre las etiquetas del objetivo, que debe aproximarse con la ayuda de los árboles, y el delta entre la función ideal y la obtenida con la ayuda de los árboles se escribe en la hoja después de multiplicarlo por el coeficiente de la tasa de aprendizaje.

Es que si se marca un error tomando la aproximación literalmente, entonces, ¿es necesario marcar un error en dos clases diferentes por uno, digamos "1"?

¿O qué?

 
Aleksey Vyazmikin #:

Me alegro de haber conseguido que te interesaras después de todo. Escribe sobre los avances en la investigación de la utilidad de este enfoque.

Llevo mucho tiempo con este tema. Hay otras maneras/paquetes por ahí. Esta característica se perdió de alguna manera, tal vez fue añadido recientemente
 
Maxim Dmitrievsky #:
Llevo mucho tiempo en este hilo. Hay otras formas/paquetes. Esta característica se perdió de alguna manera, tal vez lo han añadido recientemente

Puedes ver un video sobre este tema


 
Aleksey Vyazmikin #:

Los valores de las hojas que se suman para formar la coordenada Y de la función.

Para mí, esta es la respuesta o predicción de una hoja. Pensé que querías corregirlo por algún coeficiente.

Aleksey Vyazmikin #:
Es que si se marca un error tomando el planteamiento literalmente, entonces ¿un error en dos clases diferentes debe marcarse con uno, digamos "1"?

O, ¿cómo?

En el ejemplo de entrenamiento del artículo, sólo regresión. No puedo decir para la clasificación.

 
Aleksey Vyazmikin #:

Puedes ver un vídeo sobre este tema

Es interesante que si llevas más o menos tiempo haciendo MO, llegues a conclusiones similares. Algún proceso natural de evolución del enfoque. Así es como llegaste a kozul, aprendizaje estadístico e IA fiable. Si googleas estas palabras, puedes encontrar cosas útiles.
 
Forester #:

En el ejemplo de entrenamiento del artículo, sólo regresión. No estoy seguro acerca de la clasificación.

Acerca de la clasificación tipo de escribir aquí. Pero CatBoost tiene una fórmula ligeramente diferente, pero tal vez este es el costo de las transformaciones matemáticas....

Y un enlace a un video del mismo sitio, creo.


 
Maxim Dmitrievsky #:
Curiosamente, si tú mismo llevas más o menos tiempo haciendo MO, llegas a conclusiones similares. Algún proceso natural de evolución del enfoque. Así es como llegué a kozul, el aprendizaje estadístico y la IA fiable. Si googleas esas palabras, puedes encontrar cosas útiles.

Sí, es un proceso normal - un campo de información común. La historia conoce descubrimientos con un par de años de diferencia, y las obras que los describen se publican tarde - después de las comprobaciones, revisiones y, en general, la traducción a un lenguaje comprensible.

 
Aleksey Vyazmikin #:

Acerca de la clasificación es una especie de escrito aquí. Sin embargo, CatBoost tiene una fórmula ligeramente diferente, pero tal vez es el costo de las transformaciones matemáticas....

Y un enlace a un video del mismo sitio, creo.


No hay código. Y a juzgar por las imágenes, los árboles posteriores son entrenados no exactamente 0 y 1, abs. valores de error como 0,21, 1,08, -0,47 ..... como en la regresión.