Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 75

 
Yury Reshetov:

Por eso Dr.Trader no podía ejecutar una libVMR completa reescrita en R - demasiados cálculos y demasiado consumo de memoria.

Tenía un error en mi código en la función de conversión del núcleo grande. Atach tiene la misma versión antigua 3.01 pero con arreglo. La memoria está ahora bien, así como el gran núcleo. Pero será más lento que java.

Archivos adjuntos:
libVMR.txt  12 kb
 
Dr.Trader:

Tenía un error en mi código en la función de conversión del núcleo grande. Atach tiene la misma versión 3.01, pero con un arreglo. La memoria está bien ahora, al igual que el gran núcleo de la máquina. Pero la velocidad es más lenta que en java.

Lo más desagradable es que la velocidad está por debajo del zócalo.

Además, libVMR es un clasificador binario, lo que no es bueno. Ternario puede hacer un objeto dulce de la mierda:

Mihail Marchukajtes:
En el propio predictor el nivel de generalización de los datos es del 90%, pero en el modelo descargado es sólo del 47% No es claro.... Y todavía no ha funcionado en MQL....
Es decir, el clasificador binario sólo generaliza el 47% de los ejemplos, lo que es mucho peor que el aleatorio: el 50%. Y el ternario filtra la basura, consiguiendo ya un 90% de capacidad de generalización en los ejemplos restantes.
 
Poco a poco he ido subiendo el nivel de generalización del modelo al 100%, a ver cómo funciona en el futuro :-)
 
Mihail Marchukajtes:
Poco a poco he ido aumentando el nivel de generalización del modelo hasta el 100%, a ver cómo funciona en el futuro :-)

La generalización al 100% no es el límite. Podemos mejorar esto aún más seleccionando los predictores por sesgo. Si dos clasificadores ternarios tienen una capacidad de generalización del 100%, pero sesgos diferentes, el clasificador con el sesgo más bajo será mejor: tiene más predictores significativos.

Cuanto menor sea el sesgo, menos ejemplos de la muestra de prueba se marcarán con un guión (incertidumbre).

 
Yury Reshetov:

La generalización al 100% no es el límite. Podemos mejorar esto aún más seleccionando los predictores por sesgo. Si dos clasificadores ternarios tienen un 100% de generalizabilidad pero diferentes sesgos, el clasificador con el menor sesgo será el mejor, ya que tiene más predictores significativos.

Cuanto menor sea el sesgo, menos ejemplos de la muestra de prueba estarán marcados con guiones (incertidumbre).

Hace tiempo que me interesa y puedo decir que me ha desconcertado la pregunta. ¿Qué significa el parámetro Indicador de Reshetov y su significado? ¿Qué significa? Y el sesgo es igual a cero en mi formación al 100% de generalización...
 
Mihail Marchukajtes:
Llevo mucho tiempo preguntándome y preguntando. ¿Qué significa el parámetro Indicador de Reshetov y qué significa? ¿Qué significa?

La cuestión es que es un buen indicador para la capacidad de aprendizaje, pero no tiene ningún sentido para la capacidad de generalización. Por eso lo quitaré en las próximas versiones de jPrediction, para que no sea una molestia.

 
Yury Reshetov:

La cuestión es que es un buen indicador para la capacidad de aprendizaje, pero no tiene sentido para la capacidad de generalización. Por eso en las próximas versiones de jPrediction lo eliminaré para que sea menos molesto.

Yuri, una pregunta. ¿Puede el predictor dar probabilidades en lugar de clases?
 
Me pregunto si esto nos ayudará de alguna manera https://news.mail.ru/society/26600207/?frommail=10
 
Alexey Burnakov:
Yuri, una pregunta. ¿Puede un predictor dar probabilidades en lugar de clases?
Si por probabilidad te refieres al grado de expresión de los rasgos, entonces sí puede. Pero no en comisión, porque da salida a 0 o 1 o -1, sino en binario. Construya un modelo t sobre todo el mercado y verá cómo el modelo salta por encima de cero, y cuanto más alto sea el cero más probable es la clase. Pero en términos porcentuales....mmm... bueno, a menos que tomes el valor máximo como 100% y calcules a partir de él. Supongamos que tengo una señal de compra y el modelo está por encima de cero con un valor de, digamos, 0,1, y el valor máximo era 1, sé que esta señal de compra tiene un estado de verdad del 10%, así.... si es lo que creo que es....
 
Alexey Burnakov:
Yuri, una pregunta. ¿Puede un predictor producir probabilidades en lugar de clases?

No, las probabilidades se calculaban en versiones muy tempranas de libVMR, pero existía el gran problema de que todos los predictores debían ser estrictamente independientes entre sí para calcular correctamente el valor de la probabilidad. Y hacer cumplir esa condición en muchos ámbitos de aplicación no es en absoluto realista. Por ejemplo, casi todos los indicadores y osciladores en el comercio se correlacionan entre sí, es decir, no son independientes. Además, la condición de independencia en el algoritmo, en su ausencia en los datos, tiene un impacto negativo en la capacidad de generalización. Por lo tanto, había que abandonar esa dirección sin salida.

Ahora jPrediction no presta atención a la independencia de los predictores, sino sólo al valor de la generalizabilidad. Esto se debe a que varios predictores pueden complementarse entre sí, es decir, algunos ejemplos darán buenos resultados para algunos predictores, otros para otros, y combinaciones de predictores para otros. El cálculo de probabilidades en estas condiciones puede tener un margen de error muy grande y muy cuestionable.

Razón de la queja: