El mercado es un sistema dinámico controlado. - página 59

 
Mathemat:

Alexei, hago la primera pregunta: ¿por qué

1) Impacto constante, que es independiente del precio de la acción (impacto alfa),
2) un impacto proporcional al precio de la acción (impacto Beta),
3) Proporcional a la derivada del precio de la acción (impacto Gamma)
4) proporcional al cuadrado del precio de la acción (introduciendo la no linealidad) (impacto Delta).

Si

sólo el "Exterior" influye en la "Acción" y no a la inversa

? Entiendo que se puede reducir a equivalente, pero ¿no es más lógico representar inicialmente la respuesta por grados de impacto y no al revés?

Por cierto, la linealidad de la difura de segundo orden facilita la introducción de los conceptos clásicos de la mecánica: el momento de la acción y la función de Lagrange (energía). En el ámbito de la invariabilidad de las influencias externas, también se puede hablar de una cierta semblanza de la ley de conservación de la energía.
Pero aquí discrepo fundamentalmente: en esencia, nuestro sistema sólo recicla la energía entrante en energía saliente por "aniquilación", perdón por la terminología chispeante. En el momento en que el vendedor y el comprador llegan a un acuerdo, una pequeña parte de la energía entrante se disipa del sistema, dejando tras de sí sólo un aumento de la entropía. Y el flujo de energía a través del sistema, a grandes rasgos volúmenes de transacción, es una cantidad que dista mucho de conservarse, pero es lo que permite que el sistema exista.
 
avtomat:
2) Selección del criterio de optimización. La gama de frecuencias de funcionamiento del modelo depende de este criterio.

El criterio, en mi opinión, debería ser compuesto y considerar simultáneamente los siguientes factores (por ejemplo, mediante una función de penalización)

- tiempo de correlación de los residuos del modelo -> min

- la diferencia de la distribución de los residuos con respecto a la normal -> min

- norma del vector de residuos -> min

- número de parámetros del modelo que no convergen a cero -> min

Esto es para la inoculación, sin considerar el modelo de entrada, que pronto romperé)

 
alsu:

... sin tener en cuenta el modelo de señal de entrada, que pronto presentaré)


Involuntariamente, me viene a la mente una historia tan famosa. Cuando Laplace regaló a Napoleón un ejemplar de su "Mecánica Celeste", el Emperador comentó: "Monsieur Laplace, dicen que ha escrito este gran libro sobre el sistema del mundo, sin mencionar ni una sola vez al Creador". A lo que Laplace habría respondido: "No necesitaba esta hipótesis. La naturaleza sustituyó a Dios.

;)

 
avtomat:

"No necesitaba esa hipótesis. La naturaleza ha sustituido a Dios.

Sin embargo, sólo ciento cincuenta años más tarde, la hipótesis tuvo que ser revisada porque resultó que alguien "tiraba los dados en cada medición", como dijo Albertuszka (aunque él mismo no creyó en esta "tontería" hasta su muerte).
 
alsu:

El criterio, creo, debería ser compuesto y tener en cuenta los siguientes factores simultáneamente (por ejemplo, mediante una función de penalización):

- tiempo de correlación de los residuos del modelo -> min

- la diferencia de la distribución de los residuos con respecto a la normal -> min

- norma del vector de residuos -> min

- número de parámetros del modelo que no convergen a cero -> min

Esto es para la inoculación, sin considerar el modelo de entrada, que estoy a punto de romper)


Se pueden dar muchos criterios diferentes, y muy variados. Pero esta multiplicidad de criterios, por regla general, no conduce al resultado deseado debido a su incoherencia.
 
alsu:

Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):

- время корреляции остатков модели -> min

- отличие распределения остатков от нормального -> min

- норма вектора остатков -> min

- количество параметров модели, не обращающихся в нуль -> min

Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)


quizás más simple: un error es una pérdida, una predicción correcta es una ganancia. Estimamos los ingresos/pérdidas. Es decir, por ejemplo, PF. Es decir, el criterio de optimización PF->max
 
avtomat:

Hay muchos criterios diferentes que se pueden idear. Pero esta multiplicidad de criterios no suele conducir al resultado deseado debido a su incoherencia.
Aquí todo es importante: los dos primeros puntos requieren que los residuos se acerquen a la RSG, lo que significa que el modelo es adecuado; el tercer punto es claro por sí mismo, el error debe ser lo más pequeño posible; el cuarto punto, la excesiva complicación del modelo huele a inestabilidad y ajuste y muy probablemente afectará a la calidad del pronóstico. No veo ninguna contradicción, sólo hay que elegir correctamente los pesos de importancia de cada componente.
 
alsu:
Todo es importante aquí: los dos primeros puntos requieren que los residuos se acerquen a la RSG -significa que el modelo es adecuado-; el tercer punto se explica por sí mismo, el error debe ser lo más pequeño posible; el cuarto punto -la excesiva complejidad del modelo huele a inestabilidad y ajuste y muy probablemente afectará a la calidad de la previsión-. No veo ninguna contradicción, sólo hay que elegir correctamente los pesos de importancia de cada componente.


En mi opinión, ninguno de los criterios que ha enumerado

- tiempo de correlación de los residuos del modelo -> min

- diferencia de distribución de los residuos con respecto a la distribución normal -> min

- norma del vector de residuos -> min

- el número de parámetros del modelo que no convergen a cero -> min

no es necesario ni útil desde el punto de vista del ajuste del modelo.

Y, desde luego, no el punto 2, que requiere el ajuste a una distribución normal. Esto ya es, perdón, una tontería.

 
Avals:

quizá más simple: un error es una pérdida, una predicción correcta es una ganancia. Estimamos los ingresos/pérdidas. Es decir, por ejemplo, PF. Es decir, el criterio de optimización PF->max

Podemos hacerlo así, pero también deberíamos pensar en cómo afinar los parámetros mediante algún algoritmo.

Hay 9000 algoritmos diferentes, pero todos tienen una cosa en común en términos puramente matemáticos: para alcanzar el óptimo es necesario conocer el gradiente de la función que se está optimizando mediante parámetros ajustados. Por supuesto, se puede utilizar el FP como criterio e incluso calcular todas las derivadas en tiempo real (utilizando la diferenciación automática no es tan difícil). Pero hay un problema: el valor del factor de perfil depende enormemente de la propia serie de precios, que se sabe que tiene el carácter de un proceso ruidoso. La fluctuación de sólo 1 vela por unos pocos puntos puede resultar en 1 trato extra o 1 falta con resultado imprevisible, lo que tendría un efecto dramático en el factor de beneficio (no olvidemos que debemos optimizar la estructura del modelo en el intervalo de tiempo más corto posible, porque inicialmente suponemos que el modelo tiene parámetros variables). Por tanto, el criterio es muy poco suave y el algoritmo de optimización puede simplemente quedarse atascado en algún óptimo local condicionado, repito, por la mera fluctuación del precio.

La norma del vector de error (punto 3), en cambio, no tiene esa desventaja: un cambio de 1 punto en el precio de 1 vela dará lugar a un cambio igualmente insignificante en la función de penalización. Los puntos 1 y 2 son iguales, mientras que el punto 4 no depende en absoluto del precio.


En definitiva, el criterio debe ser lo más estable posible a las condiciones iniciales (que en nuestro caso es la muestra de optimización), o el algoritmo debe tener alguna comprobación de globalidad del óptimo encontrado. De lo contrario, en lugar de optimización, obtendremos caos.

 
avtomat:


Y, desde luego, no el punto 2, que requiere el ajuste a una distribución normal. Esto es, perdón, una tontería.

Aquí ya te contradices: si el proceso se representa como señal+ruido, entonces el residuo debería ser, en el mejor de los casos, exactamente ruido térmico, portador de exactamente 0 información. En general, esta premisa ha sido generalmente aceptada durante unos cincuenta años: la salida del SBS (pp. 1 y 2) <=> el modelo describe adecuadamente el componente determinista.

Y dígame más sobre el punto 3, ¿desde cuándo el mínimo de error es inútil desde el punto de vista de la adaptación?

Razón de la queja: