Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2812

 
El esquema de solución es sencillo, se realiza un preprocesamiento del conjunto de datos. Se realiza su análisis estándar. Del resto, cada entrada se toma como variable objetivo, y la salida en cada ML se toma como fic. Se evalúa la predicción de cada input, se descartan los malos "predecibles". Pues bien, aquellos Inputs que pasan el filtro se incluyen en el modelo de trabajo por predicción de salida en ML. Yo desecharía las fichas que no afectan a la predicción de esta manera.
 
Maxim Dmitrievsky #:
Esto ocurre cuando hay muchos estados de agente, por ejemplo en los juegos. Sólo tienes 2-3 estados de compra/venta, etc.

No, es tan primitivo, de lo contrario no sería esta dirección en absoluto.


estado no es una compra/venta, compra/venta es una acción, y estado es a grandes rasgos el número de cluster del entorno actual, y cada cluster de estado tiene su propia acción ...

Pero la acción notiene que ser primitiva como comprar/vender, puede ser el razonamiento del agente sobre el futuro por ejemplo....

Como qué pasa si compro ahora en [i], y en la vela de comercio[i+1] el precio caerá, pero no por debajo de cierto precio, esperaré a la siguiente vela [i+2], pero si el precio baja aún más invertiré, si no mantendré la compra[i...20].

Estos son razonamientos no triviales sobre el futuro y conducen al descubrimiento de la poziya.... consciente.

Pero hay una miríada de tales combinaciones de opciones de razonamiento, para no tener que pasar por todas ellas, entrenamos una función Q, es decir, el agente toma para razonar sólo aquellas opciones que tienen un buen valor Q ,

La neurona o matriz Q está entrenada de antemano...

Así es como yo lo veo...

 
peregrinus_vik #:
El esquema de solución es sencillo.

)))) sí, claro...

Me dan miedo los que dicen "es sencillo".

 
mytarmailS #:

No, es tan primitivo, de lo contrario no sería esta dirección en absoluto ...


el estado no es un by\sel, el by\sel es una acción, y el estado es a grandes rasgos el número de cluster del entorno actual, y cada cluster de estado tiene su propia acción...

Pero laacción notiene por qué ser primitivo como un byte, puede ser pensamientos de un agente sobre el futuro para example....

Como qué pasa si compro en [i] ahora, y en la vela comercial[i+1] el precio caerá, pero no por debajo de cierto precio, esperaré a la siguiente vela [i+2], pero si el precio baja aún más daré marcha atrás, si no seguiré comprando[i...20].

Estos son razonamientos no triviales sobre el futuro y conducen al descubrimiento de la posición realizada....

Pero hay una miríada de tales combinaciones de opciones de razonamiento, para que no tengamos que pasar por todas ellas, entrenamos la función Q, es decir, el agente toma para razonar sólo aquellas opciones que tienen un buen valor Q ,

La neurona o matriz Q se entrena previamente...

Así es como yo lo veo...

Estoy de acuerdo, buy sell no trade no es un estado. Hay un montón de estados.))))))

 
Valeriy Yastremskiy #:

Estoy de acuerdo, comprar vender no comerciar no es estados. Hay un hulliard de states.)))))

No hay muchos estados (si es un cluster).

Hay una horda de opciones para razonar sobre acciones futuras.

pero el razonamiento es necesario para encontrar las acciones más correctas en cada estado, además, deben ser revisados en cada vela.

 
mytarmailS #:

No, es tan primitivo, de lo contrario no sería esta dirección en absoluto ...


el estado no es un by\sel, el by\sel es una acción, y el estado es a grandes rasgos el número de cluster del entorno actual, y cada cluster de estado tiene su propia acción...

Pero laacción notiene por qué ser primitivo como un byte, puede ser pensamientos de un agente sobre el futuro para example....

Como qué pasa si compro en [i] ahora, y en la vela comercial[i+1] el precio caerá, pero no por debajo de cierto precio, esperaré a la siguiente vela [i+2], pero si el precio baja aún más daré marcha atrás, si no seguiré comprando[i...20].

Estos son razonamientos no triviales sobre el futuro y conducen al descubrimiento de la posición realizada....

Pero hay una miríada de tales combinaciones de opciones de razonamiento, para que no tengamos que pasar por todas ellas, entrenamos la función Q, es decir, el agente toma para razonar sólo aquellas opciones que tienen un buen valor Q ,

La neurona o matriz Q se entrena previamente...

Así es como yo lo veo...

Cuando empiezas a verlo bien, el factor sorpresa desaparece.

Estás describiendo la política de un agente, un enfoque múltiple. He escrito todo sobre eso. Estoy escribiendo en lenguaje nerd para que tenga sentido, y lo he olvidado.

Exactamente, es tan primitivo.

Aquí hay una que echaba espuma por la boca sobre los agentes antes de que la expulsaran).

 
Valeriy Yastremskiy #:

Estoy de acuerdo, comprar vender no comerciar no es estados. Hay un montón de estados. ))))

Estados agentes, o estados de acción. Te sugiero que te pases un par de meses leyendo libros para entender lo que has escrito y llegar a las mismas conclusiones ) sin la reacción del entorno a las acciones del agente no hay nada que optimizar, se hace de una pasada.

Hay estados del entorno, estados del agente, matrices de transiciones (políticas) del agente de estado a estado, teniendo en cuenta los cambios en el entorno. El entorno es estático, no cambia debido a las acciones del agente. Es decir, sólo es necesario definir la matriz de acciones del agente en un entorno estático, es decir, los objetivos. El marcado de objetivos se realiza en una sola pasada.
 
Maxim Dmitrievsky #:
Estados del agente, o acciones. Te sugiero que te pases un par de meses leyendo libros para entender lo que has escrito, y llegar a las mismas conclusiones ) sin la reacción del entorno a las acciones del agente, no hay nada que optimizar, se hace de una pasada.

Hay estados del entorno, estados del agente, matrices de transiciones (políticas) del agente de estado a estado, teniendo en cuenta los cambios en el entorno. El entorno es estático, no cambia debido a las acciones del agente. Es decir, sólo es necesario definir la matriz de acciones del agente en un entorno estático, es decir, los objetivos. El marcado de objetivos se realiza en una sola pasada.
Si quiero penalizar al agente por operaciones no rentables...
El objetivo es "opera lo que quieras, pero sin operaciones perdedoras, y mantente en el mercado".

¿Cómo se describe eso con markups?
 
mytarmailS #:
Si quiero penalizar a un agente por tratos no rentables.
El objetivo es "operar lo que quieras, pero sin operaciones perdedoras, y estar en el mercado".

¿Cómo describiría eso con etiquetas?
Una serie de marcas sin pérdidas en el historial, ¿no? ) Etiquételas
Rl trata de encontrar el camino óptimo, por así decirlo, o la optimización. Puedes hacerlo tú mismo o a través de él. No se trata de encontrar algunos patrones super-duper por ahí.

Lee a Sutton, Barto, "reinforcement learning", está en ruso. Va de los primitivos a todo lo demás. Entonces llegarás a DQN

Allí encontrarás analogías con la optimización genética y la programación, que yo recuerde.
 
Maxim Dmitrievsky #:
Estados del agente, o acciones. Te sugiero que te pases un par de meses leyendo libros para entender lo que has escrito, y llegar a las mismas conclusiones ) sin la reacción del entorno a las acciones del agente, no hay nada que optimizar, se hace de una pasada.

Hay estados del entorno, estados del agente, matrices de transiciones (políticas) del agente de estado a estado, teniendo en cuenta los cambios en el entorno. El entorno es estático, no cambia debido a las acciones del agente. Es decir, sólo es necesario definir la matriz de acciones del agente en un entorno estático, es decir, los objetivos. El marcado de objetivos se hace en una sola pasada.
Sigo siendo tonto a la hora de describir el estado de la fila manualmente.))))))
Razón de la queja: