Predicción de mercado basada en indicadores macroeconómicos - página 41

 
Sergiy Podolyak:

¿Qué quieres decir? Yo predije la crisis mundial en 2007.


Todas las "predicciones" en esta vida no valen NADA - sólo el dinero vale algo.

¿Ganaste un millón con esa predicción?

Hay millones de personas en todo el mundo que han "predicho" algo; sólo unos pocos han ganado dinero.

Estaba seguro: debería haber hipotecado mi piso y abrirme a todo.

 
Дмитрий:

Todas las "predicciones" en esta vida no valen NADA - sólo el dinero vale algo.

¿Ganaste un millón con esta predicción?

Hay millones de personas en todo el mundo que han "predicho" algo; sólo unos pocos han ganado dinero.

Estaba seguro: debería haber hipotecado mi piso y abrirme a todo.

Cosaco, tu codicia apesta a Goldman Sachs. Al menos deberías disfrazarte de alguna manera, ya sabes -.....

No todo se mide en dinero. La única manera de que lo entiendas es si te conviertes en economista o en comerciante.

 
Sergiy Podolyak:

Cosaco, tu codicia apesta a Goldman Sachs. Al menos deberías disfrazarte de alguna manera, ya sabes -.....

No todo se mide en dinero. Sólo lo entenderás si te conviertes en economista o en comerciante.

)))

No se puede ser comerciante sin medir todo en términos de dinero.

Se puede ser economista, pero no comerciante.

Si hubieras abierto todo en 2007, habrías salido del mercado en el otoño de 2008.

 
)))) tiene que pasar por Lomonosov y darle una patada en las orejas a Chernyak - a quien enseñó......
 
Vladimir: Las otras columnas son diferentes predictores económicos. El PIB está en 1166 columnas.......
Los datos no son muy buenos, por no decir otra cosa. + Demasiadas cosas))
Tira...
PIB = 144,1876*COL83
PIB = COL226
PIB = COL739
PIB = 62 + COL1128
PIB = 0,001*COL1168
etc...
(COL83 = columna 83)
No he investigado mucho (menos de lo que se ha buscado en matlab))
Exportar desde matlab con separadores ; = dlmwrite('miarchivo',Datos,';')
A partir de una corazonada, dos modelos están 1 píxel por delante (rojo y verde).

Derecha de la línea vertical = aplicación de los modeladores a los nuevos datos...


 
Vizard_:
Los datos no son muy buenos, por no decir otra cosa. + Demasiadas cosas))
Descartar -
PIB = 144,1876*COL83
PIB = COL226
PIB = COL739
PIB = 62 + COL1128
PIB = 0,001*COL1168
etc...
(COL83 = columna 83)
No he investigado mucho (menos de lo que se ha buscado en matlab))
Exportar desde matlab con separadores ; = dlmwrite('miarchivo',Datos,';')
Haz una rayuela con los dos modelos 1 nb hacia delante (rojo y verde).

Derecha de la línea vertical = aplicación de los modelos a los nuevos datos...


No está mal para empezar. ¿A qué año corresponde la línea vertical? ¿Y cuántos predictores hay en los modelos?
 
Vladimir:

Bueno, es primavera, el oso está despierto, hambriento...

¿Le muestro cómo cayó el S&P500 en 2008 durante el crecimiento negativo del PIB, o quiere verlo usted mismo?

Ve al principio del hilo y lee sobre mis objetivos: predecir las caídas y evitar las posiciones largas antes de que se produzcan. No me interesa el comercio, así que utilizo datos trimestrales. Lo principal es la preservación del capital. Y cómo fluctúa el S&P500 en torno a sus tendencias y planos no me interesa.

>> Deshazte de esa arrogancia radio-técnica de pensar que todos los economistas son idiotas... ¿Qué te hace pensar que eres el único que lee estos miles de indicadores económicos? Ellos también los leen.

No creo que todos sean idiotas, pero la mayoría lo son, postulan cosas que vendrán o predicen constantemente una recesión hasta que sucede, y entonces se declaran genios. Hasta ahora ni un solo economista ha predicho el crash de 2008, así que sí, idiotas salvo un par. El Banco Federal utiliza su modelo SDGE con 16 indicadores generalmente aceptados para predecir la economía y ese modelo es tonto. Y es probable que ni siquiera haya oído hablar de ese modelo.

No tiene nada que ver con la ingeniería de radio y la correlación. No utilizo métodos radiotécnicos, pero tampoco veo que sean perjudiciales. Eres arrogante en el sentido de que no permites la existencia de métodos de análisis y la creación de modelos diferentes a los generalmente aceptados en economía. Ignorar el progreso de la modelización y el aprendizaje automático en otras ramas de la ciencia es una arrogancia, o incluso una estupidez, que no permite nuevos descubrimientos.

Así es, no hay autoridades al frente. Respeta y respeta a las autoridades, pero debes pensar con la cabeza, y dudar de todo, aunque estés seguro, deja un pequeño porcentaje de duda, y de repente este pequeño porcentaje puede llevar a un avance.

El meme "durante el crecimiento negativo del PIB" es una delicia :))))

 
Vladimir:
No está mal para empezar. ¿A qué año corresponde la línea vertical? ¿Y cuántos predictores hay en los modelos?
No es bueno. He mirado por curiosidad e inmediatamente los he borrado todos. En mi opinión, no hay predictores normales en los datos. Creo que he recortado las cuatro primeras líneas, había muchos valores vacíos.
Construí modelos sobre las primeras 100 observaciones. Resulta que el 104, y con el 105 ya es OOS. El verde es muy sencillo, 6-7 predictores sin transformación. El rojo cuesta el doble.
+ Tomé valores absolutos y senos, etc., y esto es visible en el LSS, comienza a storm)))) En ambos (para la estabilidad) - no hay coeficientes, sólo fórmulas simples
entre los predictores utilizados. No normalizado, a las primeras diferencias (incrementos) a continuación, llevado a hacer más claramente visible donde un defecto. Las observaciones son insuficientes, debe haber
Hacer que un modelo tenga más o menos "sentido físico". Como - el desempleo y (o) bla-bla-bla, su relación ... etc. Lo intenté, no funcionó))) Si con un reentrenamiento en
cada observación (trimestre) como estás haciendo, da igual lo que introduzcas, siempre que haya un corte. Por lo que tengo entendido la rejilla se escoge sola, sin embargo los datos
es mejor borrar los datos de antemano...
 

Mi código Matlab primero elimina los predictores que tienen NaN en el historial simulado, luego convierte todos los datos por el mismo método, después recorre todo el historial probando cada uno de los 2 mil predictores y sus versiones retrasadas para la capacidad de predicción del futuro pasado, calcula el error de predicción acumulado de cada predictor y finalmente da una lista de predictores ordenados por su error. Si se hace esto para cada momento pasado de la historia y se toman los mejores predictores y se predice el futuro, el resultado es bastante decente durante unos años hasta que se produce una recesión. En esos momentos, los mejores pronósticos del pasado no predicen bien la caída del PIB y son sustituidos por nuevos pronósticos. Y así hasta que se produce una nueva recesión. No sé si existe una fórmula universal para la dependencia del PIB de algunos pronósticos clave. Si añadimos otros cien años de historia, al final de estos cien años tenemos una lista de pronosticadores que predijeron todas las recesiones más o menos bien, pero cuando llega la siguiente recesión pueden ser sustituidos por nuevos predictores de nuevo.

Elegir intuitivamente los predictores también es un error. Por ejemplo, ¿la tasa de desempleo es un indicador principal o secundario? ¿Una tasa de desempleo elevada provoca una recesión o, a la inversa, una recesión provoca una tasa de desempleo elevada? Me parece que la recesión provoca un alto nivel de desempleo, por lo que utilizar el desempleo para predecir las recesiones no es una opción. Pero la decisión de utilizar cualquier predictor en el modelo la toma mi código basándose en los errores de predicción acumulados. Hasta ahora, el papel principal en mi modelo lo ocupan los predictores basados en la inversión privada en la construcción de viviendas y el consumo doméstico. Esto es probablemente lógico, porque las casas y los electrodomésticos son una parte importante del PIB. Si la gente no compra casas, frigoríficos y televisores, la producción disminuye, el PIB baja, las fábricas despiden a los trabajadores, el paro sube y el consumo baja aún más. Los republicanos y los demócratas están sacando al país de la recesión de diferentes maneras. Los demócratas dan dinero a la población con salarios bajos (vales) para aumentar su consumo o fomentan la inmigración para crear una nueva consumeristocracia. Los republicanos argumentan que un subsidio único de 500-700 dólares para las familias pobres no les permitirá comprar una nueva casa o un coche y hacer avanzar la economía. Prefieren dar dinero a los pobres bajando los impuestos, especialmente a las inversiones. Su teoría es que los ricos, al ahorrarse más dinero en impuestos más bajos, comprarán cosas más caras (casas, coches, etc.) lo que aumentará el consumo donde importa, o invertirán el dinero en empresas lo que reducirá el desempleo, aumentará la capacidad de pago y aumentará el consumo. La Reaganomics se basó en esto.

 
Vladimir:

1. Calcula las velocidades relativas: r[i] = x[i]/x[i-1]-1. Esta transformación normaliza automáticamente los datos, no hay que mirar al futuro, no hay que hacer nada más. Pero existe un gran problema con los datos cero (x[i-1]=0) y los datos negativos, y hay muchos de ellos en los indicadores económicos.

2. Calcula los incrementos d[i] = x[i] - x[i-1]. Esta transformación no se preocupa por los datos cero y negativos, pero los incrementos crecen con el tiempo para los datos que crecen exponencialmente, como el producto bruto anual. Es decir, la varianza no es constante. Por ejemplo, no es posible trazar la dependencia de los incrementos del GWP de la tasa de desempleo porque la tasa de desempleo fluctúa dentro de un rango con una varianza constante, mientras que el GWP crece exponencialmente, con una varianza exponencialmente creciente. Por tanto, los incrementos deben normalizarse a la varianza variable en el tiempo. Pero calcular esto último no es fácil.

3. Eliminar de los datos la tendencia calculada, por ejemplo, por el filtro Hodrick-Prescott y normalizar el residuo de alta frecuencia por la varianza variable en el tiempo y utilizarlo como entrada del modelo. El problema aquí es que el filtro Hodrick-Prescott y otros filtros basados en el ajuste polinómico(filtro Savitzky-Golay, lowess, etc.) miran hacia adelante. El movimiento se retrasa con respecto a los datos y es inadecuado para la eliminación de la tendencia, especialmente en los datos que aumentan exponencialmente.

¿Alguna otra idea?

Utilizo (x[i] - x[i-1]) / (x[i] + x[i-1]). Los datos negativos son tan buenos como los positivos. La normalización en [-1, +1] es mejor que en [0, 1].
Razón de la queja: