Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 156

 
Y por cierto, los porcentajes cósmicos a largo plazo se ganan en 5 minutos, con el correspondiente aumento de las operaciones, así que..... todo encaja....
 
Alexey Burnakov:


2) bueno sí... pero este Sharpe 2-3 ¿cómo se calcula? ¿Cómo calculan los fondos, o mejor dicho, CÓMO determinan que ésta es la estimación real de Sharpe en una operación real?


La cuestión es que en los modelos, el Sharp es la relación entre el rendimiento y el riesgo, hay muchas variaciones, lo que contar como el rendimiento, como el porcentaje de crecimiento estúpido o la regresión de la dinámica de crecimiento, y el riesgo es CKO o drawdown máximo, etc. Las diferencias no son fundamentales, pero si 2-3 era una realidad todo el mundo sería un multimillonario, en el comercio real por varias razones que sale muchas veces menos, incluso cuando se hace por el equipo de doctorado. Pero mucho tiene que ver con la capacidad, si muchos modelos cotizan por 100K dólares o incluso hasta 10M dólares la situación sería mucho más agradable, pero eso ni siquiera amortizaría la inversión y los salarios con las bonificaciones a los empleados.

 
J.B:

Eso es lo que pasa con los modelos, Sharpe es la relación entre la rentabilidad y el riesgo, hay muchas variantes de lo que contar como rentabilidad, como el estúpido porcentaje de crecimiento o la regresión de la dinámica de crecimiento, y el riesgo es el CKO o el máximo drawdown, etc. las diferencias no son fundamentales, pero si el 2-3 fuera real todo el mundo sería multimillonario, en el trading real por varias razones sale veces menos, incluso cuando se hace por equipo de doctorado. Pero mucho tiene que ver con la capacidad allí, si muchos modelos cotizan a 100K dólares o incluso hasta 10M dólares la situación sería mucho más agradable, pero eso ni siquiera amortizaría la inversión y los salarios con las bonificaciones a los empleados.

El doctorado no es un indicador. La reconversión será tan buena como la de Ms y Bs. De ahí la fuerte caída de las métricas en el real.
 
Alexey Burnakov:

Bien, de acuerdo.

Supongamos que no clasifico el crecimiento en arriba/abajo, sino que construyo un modelo de regresión. Así que R^2 o alguna otra métrica determinista (por ejemplo, la métrica de desviación absoluta robusta) está bien.

En cuanto a la información mutua, ¿es infundada o hay pruebas sólidas de que la métrica funciona de forma poco fiable? Tengo mis dudas.

Actualización: He investigado mucho sobre datos sintéticos y reales utilizando información mutua. Si la dependencia es estacionaria, la métrica funciona bien en todas partes. Si la dependencia está al borde del ruido, la métrica puede mostrar una dependencia nula. Pero, en general, no veo ninguna razón por la que funcione peor en sistemas no lineales multivariantes que, por ejemplo, la F1. Puede leerlo aquí:https://habrahabr.ru/company/aligntechnology/blog/303750/

Pero cuando clasifiqué un movimiento de precios incremental obtuve aproximadamente la siguiente imagen (para 5 pares de divisas juntos, es decir, un modelo para todos):


Es decir, al menos los valores medianos de precisión en 50 muestras pendientes en la región del 57% como máximo. Para los pares de divisas individuales, logro una precisión media superior al 60%. Esto es sólo en datos de series temporales.

Lo siento, no hay tiempo para dar pruebas sólidas, los datos del mercado no son estacionarios y las dependencias no son lineales, simular por ejemplo un ruido fractal de 10 dimensiones en 2d así: rojo una clase verde la otra sólo en 10d

Como veis no son dependencias gaussianas un montón de "islas" y demás. Pues bien, calcula cuál es la eficacia de utilizar la información mutua o r^2 al añadir y eliminar una dimensión, ya que la clasificación se cae. R^2 es generalmente lineal, en caso de hipersuperficie separadora de topología compleja y muchas islas todo es triste. Aquí no se puede prescindir de los criterios estadísticos clásicos, puede comprobarlo usted mismo. ¿Y si hay 100d o 1000d de esos líos?

 
J.B:

Lo siento, no hay tiempo para dar pruebas contundentes, los datos del mercado no son estacionarios y las dependencias no son lineales, simule por ejemplo el ruido fractal de 10 dimensiones en 2d así: rojo una clase verde la otra solo en 10d

Como veis no son dependencias gaussianas muchas, hay "islas" y demás. Pues bien, calcula cuál es la eficacia de utilizar la información mutua o r^2 al añadir y eliminar una dimensión, ya que la clasificación se cae. R^2 es generalmente lineal, en caso de hipersuperficie separadora de topología compleja y muchas islas todo es triste. Aquí no se puede prescindir de los criterios estadísticos clásicos, puede comprobarlo usted mismo. ¿Y si hay 100d o 1000d de esos líos?

No es demostrable...

No puedes entenderme. Estoy diciendo que no estoy clasificando, estoy construyendo un modelo de regresión. ¿Qué tiene que ver la clasificación... No estoy ejecutando ningún hiperplano. Estoy haciendo una modelización condicional del valor medio del objetivo y midiendo su calidad mediante el análisis de los residuos. Así es como se hace siempre.

Si hablamos de clasificación, no es necesario el requisito de normalidad de algo, por ejemplo, si la probabilidad de algo es cercana a cero. La no linealidad y la multidimensionalidad son sólo el ámbito de la información mutua. Creo que no estás muy al tanto de este asunto...

 
Dimitri:

El 10% es la carga del depósito.

Si tienes un depósito de 1.000 dólares, lo cargas en un 10%: abres una operación por 100 dólares.

Ahora, ATENCIÓN, dependiendo del apalancamiento proporcionado por su corredor/entrenador usted puede comprar diferentes lotes - $10,000 (1:100), $5,000 (1:50), $20,000 (1:200).

P.D. fuckerbaby........


No digas palabrotas en un tema ligero...

Hagamos las cuentas.

Primer ejemplo. Tengo 500 dólares. Un microlote vale 1000 dólares. Abro una operación con un microlote (porque las compras de cantidades mayores ya no caben dentro del límite de riesgo inherente) y así utilizo un apalancamiento de 1:2. Dado que el comerciante me da un apalancamiento máximo de 1:100, cargo mi depósito con un 2% para comprar $1000 / 100.

Segundo ejemplo. Si abro 5 operaciones, con el mismo nivel de capital, cargo mi depósito en un 10% y uso un apalancamiento de 1:10 (0,01 * 100000 * 5 / 500).

Es decir, el apalancamiento máximo proporcionado depende sólo del porcentaje de la carga del depósito y me da la oportunidad de abrir todo el corte. El apalancamiento real es a mi discreción. Pero el mínimo es 1:2 para mis inversiones.

¿Ya está todo claro?

 
Alexey Burnakov:

No digas palabrotas en un tema ligero...

Hagamos las cuentas.

Primer ejemplo. Tengo 500 dólares. Un micro lote cuesta 1000 dólares. Abro una operación con un microlote (porque las compras de cantidades mayores ya no caben dentro del límite de riesgo inherente) y así utilizo un apalancamiento de 1:2. Dado que el comerciante me da un apalancamiento máximo de 1:100, cargo mi depósito con un 2% para comprar $1000 / 100.

Si abro 5 operaciones, con el mismo nivel de capital, cargo el depósito en un 10% y uso un apalancamiento de 1:10 (0,01 * 100000 * 5 / 500).

¿Está claro ahora?

Utilizas la misma palanca que te proporciona la cocina. No se varía el apalancamiento (está dado - una constante), sino la cantidad de capital que se utiliza para un apalancamiento determinado.

Una vez más: ¿qué apalancamiento le da la cocina para su tipo de cuenta? 1:100?

 
Dimitri:

Utiliza la misma palanca que le proporciona la cocina. No es el apalancamiento que estás utilizando (es una constante establecida), es la cantidad de capital que estás utilizando para un apalancamiento determinado.

Una vez más: ¿qué apalancamiento le da la cocina para su tipo de cuenta? 1:100?


Apalancamiento máximo: sí, 1:100. Pero no lo uso. Una vez más.

 
Alexey Burnakov:

No es probatorio...

No puedes entenderme. Yo digo, no clasifico, construyo un modelo de regresión. ¿Qué tiene que ver la clasificación... No estoy ejecutando ningún hiperplano. Estoy haciendo una modelización condicional del valor medio del objetivo y midiendo su calidad mediante el análisis de los residuos. Así es como se hace siempre.

Si hablamos de clasificación, no es necesario el requisito de normalidad de algo, por ejemplo, si la probabilidad de algo es cercana a cero. La no linealidad y la multidimensionalidad son sólo el ámbito de la información mutua. Creo que no estás muy al tanto de este asunto...

Bueno, cómo no una clasificación, tomemos por ejemplo 1000 factores, una red neuronal profunda con bien por ejemplo 100 salidas que den probabilidades de movimientos alcistas/bajistas de un determinado instrumento en diferentes horizontes temporales. ¿Es una regresión? La regresión es cuando se predice el precio.

Usted puede utilizar la información mutua, mientras que nosotros deberíamos simplemente buscar entre los factores y calcular el porcentaje de influencia de cada uno de ellos en la previsión final, para un modelo específico, lo que es aún peor. googleNet en términos de sofisticación. No necesitamos la regresión, no nos interesa saber exactamente cuánto valdrá un activo, eso complica el modelo y no tiene sentido, lo principal es que durante N segundos se mueva en la dirección correcta con una probabilidad determinada.

 
Alexey Burnakov:

El apalancamiento máximo es sí, 1:100. Pero no lo uso. Lo diré de nuevo.

De acuerdo, si no entiendes las cosas elementales, entonces no tiene sentido discutir.

En resumen, tienes que dividir tu interés por el porcentaje del fondo de cobertura entre unos 10.

Razón de la queja: