Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2569

 
mytarmailS #:
Quién sabe si hay una prueba para el determinismo de la tendencia...
Hay que saber si esto es realmente una tendencia o una fluctuación aleatoria...

¿Tal vez el mismo Hearst?


Pruebas de diferentes tipos de tendencias fuera de la caja

¡¡¡¡R best!!!!

Hay un buen paquete de tendencias en R. Para una tendencia lineal, sens.slope() es bueno desde allí.

 
mytarmailS #:

Lo que hay que entender sobre las matemáticas financieras y la IR, hay que conocer la mecánica del mercado y sus actores

La multitud está destinada a perder en la mayoría de los casos, porque su contraparte es un "jugador importante".

1) hay que ver un desequilibrio entre compradores y vendedores, por ejemplo, si hay muchos vendedores, entonces el "gran jugador" (el comprador) está en el otro lado del trato

Como ahora en el judío, por ejemplo, un montón de vendedores

2) También se negocia en el momento contra la multitud - esto es un creador de mercado

Siempre se ve que el precio se mueve en contra de la multitud (correlación inversa).

Mientras la multitud compre y crea en el crecimiento, el precio caerá y viceversa...

Ese es todo el mercado...


p.d. Y seguro que veré el vídeo.

Eso también tiene problemas, y no pocos. Sólo disponemos de una pequeña porción del mercado, que no se sabe si es representativa y fiable. La segunda imagen (sentimiento general) no sirve para nada. En primer lugar, los retrocesos se producen regularmente en los extremos, donde parecería que la tendencia "contra la multitud" debería haber continuado. En segundo lugar, la sanción simplemente repite el precio (al revés y menos la tendencia) - invertir cualquier oscilador y se obtiene una imagen muy similar. Pues bien, si el indicador repite el precio, significa que su predicción no es más fácil que el propio gráfico de precios, ¿no? La primera imagen (la copa y las posiciones abiertas) y el valor de la relación de beneficios son más valiosos, pero... muy cuestionable.


 
Aleksey Nikolayev #:

No hay mucha diferencia (desde el punto de vista combinatorio) en cómo se codifica exactamente. La cuestión es la misma: cada línea tiene como características qué normas se aplican y cuáles no. Siempre es 2^N variantes, donde N es el número de reglas. Después, cada una de estas reglas se incluirá en el conjunto final de 2^(2^N) variantes. Está claro que es imposible probar formalmente un número tan grande de variantes. Por eso tiene sentido organizarlos de forma razonable. Por ejemplo, primero tomamos todas las variantes descritas por una sola regla, luego todas las variantes descritas por sólo dos reglas y así sucesivamente. O algo así.

Tal vez no me esté explicando bien, pero quiero recalcar una vez más que estamos trabajando con una muestra inicial, que dentro del algoritmo de aprendizaje CatBoost se cuantifica una vez, es decir digamos que tenemos 1000 predictores, los cuantificamos cada uno en 10 segmentos, como resultado tenemos 10000 segmentos - además el algoritmo CatBoost extrae aleatoriamente los predictores y recorriendo las aristas/cuantas hace un split/split, para seleccionar un quantum que esté en el medio, necesita construir 3 desigualdades o crear 8 hojas, donde 7 hojas dirán basura y una hoja sobre información valiosa. Tampoco es seguro que el algoritmo construya ese árbol, ya que hay un amor al azar y un quantum vecino puede entrar en una hoja. Y que sea sólo un árbol. En mi método una desigualdad será suficiente - 2 hojas. Incluso si se utilizan todos los predictores y cada uno tiene 1 hoja útil, el número de combinaciones al crear el modelo será mucho menor. Pero, lo que es más importante, también habrá menos ruido, ya que no habrá tantas particiones de muestras erróneas que estabilizar y que necesiten construir un nuevo árbol (principio de potenciación).

Aleksey Nikolayev # :

Tarde o temprano muchos otros jugadores los encontrarán, por ejemplo.

Entonces, ¿quizás habría que probar de alguna manera esta teoría? ¿Según la cual hay una frecuencia mínima de recurrencia de una ventaja, después de la cual es más probable que desaparezca, que que siga existiendo?

Por ejemplo medimos cada medio año, hay una ventaja de 1,5 años - consideramos que medio año va a funcionar, y si ya son 2,5 años no tiene sentido y lo tomamos - la probabilidad es más que deje de funcionar.

No se me dan bien las fórmulas científicas, ¿podéis decirme cómo hacer este cálculo y comprobar la hipótesis?

 
Aleksey Nikolayev #:

Hay un buen paquete de tendencias en R. Para una tendencia lineal, sens.slope() es bueno desde allí.

gracias

vladavd #:

Eso también tiene problemas, y bastantes. Sólo disponemos de una pequeña porción del mercado, que no sabemos hasta qué punto es indicativa y fiable. La segunda imagen (sentimiento general) no es útil en absoluto. En primer lugar, los retrocesos se producen regularmente en los extremos, donde parecería que la tendencia "contra la multitud" debería haber continuado. En segundo lugar, la sanción simplemente repite el precio (al revés y menos la tendencia) - invertir cualquier oscilador y se obtiene una imagen muy similar. Pues bien, si el indicador repite el precio, significa que su predicción no es más fácil que el propio gráfico de precios, ¿no? La primera imagen (la copa y las posiciones abiertas) y el valor de la relación de beneficios son más valiosos, pero... muy cuestionable.

Te pierdes en muchas cosas, eres demasiado superficial y tienes una percepción irreflexiva de la información.

 
Aleksey Vyazmikin #:

Quizás no me estoy explicando bien, pero quiero volver a recalcar que estamos trabajando con la muestra original, que dentro del algoritmo de aprendizaje CatBoost se cuantifica una vez, es decir digamos que tenemos 1000 predictores, los cuantificamos cada uno en 10 segmentos, como resultado tenemos 10000 segmentos - además el algoritmo CatBoost extrae aleatoriamente los predictores y recorriendo las aristas/cuantas hace un split/split, para seleccionar un quantum que esté en el medio, necesita construir 3 desigualdades o crear 8 hojas, donde 7 hojas dirán basura y una hoja sobre información valiosa. Tampoco es seguro que el algoritmo construya ese árbol, ya que hay un amor al azar y un quantum vecino puede entrar en una hoja. Y que sea sólo un árbol. En mi método una desigualdad será suficiente - 2 hojas. Incluso si se utilizan todos los predictores y cada uno tiene 1 hoja útil, el número de combinaciones al crear el modelo será mucho menor. Pero lo más importante es que también habrá menos ruido, ya que no habrá tantas particiones de muestras erróneas que estabilizar y que necesiten construir un nuevo árbol (principio de potenciación).

Tal vez debería describir su enfoque en un ejemplo de un solo árbol de decisión. Sin embargo, por sí mismo, el refuerzo ya construye una estructura bastante compleja: una secuencia de árbol de refinado. Yaún así haces algo más con él).

Aleksey Vyazmikin #:

Entonces, ¿quizás debas comprobar esta teoría de alguna manera? ¿Según la cual existe una frecuencia mínima de reaparición de la ventaja, tras cuyo aumento hay más probabilidad de que desaparezca, que de que continúe existiendo?

Por ejemplo, medimos cada medio año, hay una ventaja de 1,5 años - consideramos que medio año seguirá funcionando, y si ya son 2,5 años, no tiene sentido y lo tomamos - la probabilidad es mayor de que deje de funcionar.

No soy fuerte en fórmulas científicas, ¿me puedes decir cómo hacer ese cálculo y comprobar la hipótesis?

Algo así como la fórmula de la radiactividad con la vida media) No creo que la actividad humana se describa con fórmulas tan simples) Su "frecuencia de ventaja" cambiará, muy probablemente de alguna manera muy impredecible.

 
Aleksey Nikolayev #:

Tal vez debería exponer su enfoque utilizando un único árbol de decisión como ejemplo. Sin embargo, el refuerzo en sí mismo ya construye una estructura bastante compleja: una secuencia de árboles de refinación. Yaún así haces algo más con él).

Sí, comprendo que no es fácil entender inmediatamente el método. Tengo previsto describirlo con más detalle. Y los datos se procesan antes de enviarlos a CatBoost, pero quiero hacer mi propio algoritmo, que tendrá en cuenta la dinámica cambiante de la "decadencia", como usted lo llamó, al dividir.

Aleksey Nikolayev #:

Algo así como una fórmula de radiactividad con vida media) No creo que la actividad humana se describa con una fórmula tan simple) Su "frecuencia de ventaja" es probable que cambie de alguna manera altamente impredecible.

Puede que no haya nada, pero ¿cómo se comprueba?

 
mytarmailS #:

gracias

Te estás perdiendo en muchas cosas, demasiado superficiales y sin pensar en esta información.

Sí, hace años que trabajo con esta herramienta y no lo he pensado del todo.

¿Con qué no estás de acuerdo exactamente?

 
Aleksey Vyazmikin #:

Sí, digamos que sí.

No, ahora tome la ejecución de la regla de desigualdad como una y mire el valor medio del objetivo (digamos para la clasificación binaria) cuando la regla es activada por la muestra, si el valor medio inicial es, digamos, 0,45 en la muestra, y después de la evaluación sólo por respuestas es 0,51, entonces considere que el predictor (su parcela/cuantía) tiene un poder predictivo de 0,06, es decir, el 6%.

Reunimos muchos de estos predictores con secciones, que ya son predictores binarios independientes y los utilizamos para construir un modelo.

Combinar todos esos cuantos con todos (con o sin poder de predicción) no es, en efecto, una tarea rápida, pero puede no ser descabellada si se hace con un predictor base sobre el que se identifica un cuanto con poder de predicción.

Pero, incluso en teoría, esta reconversión sería menor, ya que hay menos combinaciones posibles que las que había en la muestra completa.

Lo que queda por entender es por qué estos patrones cuánticos pueden funcionar durante 7 años y luego dejar de hacerlo de repente...

¿Entiendo bien lo que está haciendo?:


1) Obtenemos 1 árbol.
2) Cada nodo puede dar hasta 10 ramas (en la imagen encontramos menos, digamos 10 ramas), cada rama es generada por 1 quantum (un quantum es un trozo de predictor en un 10%: ya sea percentil o 10% en amplitud, depende de qué método de cuantificación se haya utilizado).
3) después de la primera división, encontramos 3 cuantos, que posteriormente conducen a una hoja exitosa
4) las divisiones subsiguientes encuentran algunas divisiones/cuantos más buenos que conducen a hojas exitosas
5) memorizamos los cuantos exitosos antes de las hojas exitosas
6) construimos un nuevo árbol, que utiliza como predictores sólo los cuantos que seleccionamos

Para hacerlo con el mismo método que cuantificamos el primer árbol, cuantificar los predictores con nuestro script, obtenemos 1000 predictores de 100, ya son binarios 0 o 1. Si el valor del predictor está en este rango, es = 1, si no, es = 0.
Como sólo seleccionamos caminos/cuantos exitosos, todos los valores de los cuantos seleccionados = 1. Si todos los predictores = 1, el nuevo árbol no puede aprender. La respuesta ya se conoce.

¿O ya no es necesario construir un nuevo árbol? Si el valor del predictor entra dentro del quantum seleccionado, ¿lo haremos inmediatamente?

 
vladavd #:

Sí, llevo años trabajando con esta herramienta, así que no he pensado en ello en absoluto.

¿Discrepar de qué, exactamente?

¿Con qué herramienta exactamente?

 
mytarmailS #:

¿con qué tipo de herramienta?

¿Qué hay en la foto? El vaso y la sanción.

Razón de la queja: