Comercio Cuantitativo - página 37

 

Momentos de muestra (FRM Parte 1 2023 - Libro 2 - Capítulo 5)


Momentos de muestra (FRM Parte 1 2023 - Libro 2 - Capítulo 5)

El capítulo titulado "Momentos de muestra" en la Parte 1, Libro 2 de Análisis cuantitativo profundiza en el concepto de muestras y sus momentos. Como saben los espectadores habituales de mis videos, prefiero presentar ejemplos intrigantes que no solo sean relevantes sino que también sirvan para nuestro propósito. Algunos pueden considerarlos tontos, pero tienen importancia en el contexto de nuestra discusión. Para comenzar este capítulo, compartiré un ejemplo introductorio que gira en torno a la toronja, que resulta ser una de mis favoritas.

Explorando las semillas de toronja: No solo disfruto consumiendo toronja, sino que también disfruto cortándola para mis hijos. Disfrutan de su sabor y es innegablemente beneficioso para su salud. Sin embargo, el problema surge cuando abrimos un pomelo y encontramos numerosas semillas en su interior. Supongamos que somos investigadores interesados en comprender la cantidad de semillas en una toronja. Para investigar esto, nos embarcamos en un viaje para obtener miles de pomelos de una tienda de alimentos. Una vez que regresamos a casa, cortamos meticulosamente cada toronja, solo para encontrar cantidades variables de semillas. Algunas toronjas tienen 3 o 4 semillas, mientras que otras poseen 6 o 7, y algunas incluso contienen 10 o 12 semillas.

Registro de los datos de la muestra: Con mil toronjas en nuestro poder, registramos diligentemente la cantidad de semillas en cada fruta. Sin embargo, es posible que toda esta muestra no nos brinde información detallada. Ofrece un rango aproximado y una idea general de qué anticipar al cortar una toronja. Para profundizar más, debemos cambiar nuestro enfoque a la segunda parte del título del capítulo: los momentos. Nuestro objetivo es explorar los momentos de esta muestra que nos pueden iluminar sobre el consumo futuro de pomelo y el número esperado de semillas. El primer momento que encontramos es el promedio o la media. Dividiendo la suma de las semillas de nuestras mil toronjas por mil, podemos llegar a un promedio de, digamos, cinco semillas.

Considerando Múltiples Momentos: Sin embargo, debemos reconocer que cada vez que abrimos una nueva toronja, es posible que no obtengamos exactamente cinco semillas. Podríamos recuperar tres semillas o siete semillas, o cualquier otra cantidad. En consecuencia, debemos considerar los otros momentos también. Para resumir, la conclusión clave de este ejemplo inicial y aparentemente trivial es que los momentos (de los cuales se analizarán cuatro en este capítulo) brindan información sobre la distribución de la muestra. Armados con este conocimiento, podemos tomar decisiones informadas con respecto al consumo futuro de toronjas y la cantidad esperada de semillas.

Objetivos de aprendizaje: Ahora, dirijamos nuestra atención a los objetivos de aprendizaje descritos en este capítulo. Curiosamente, estos objetivos no mencionan explícitamente la toronja, y creo que todos podemos estar agradecidos por eso. Entonces, ¿qué queda por delante? Nos involucraremos en una plétora de estimaciones que involucran la media, los momentos de la población, los momentos de la muestra, los estimadores y las estimaciones. Evaluaremos si estos momentos presentan sesgo o no. Por ejemplo, si nos encontramos con un momento en nuestra muestra de toronja que sugiere que cada tercera toronja contendrá 50 semillas, parecería muy improbable y lejos de nuestras expectativas razonables con respecto a las semillas de toronja. Por lo tanto, debemos tener cuidado con los momentos sesgados. Además, exploraremos el teorema del límite central y procederemos a examinar los momentos tercero y cuarto de la distribución, a saber, la asimetría y la curtosis. Por último, profundizaremos en las covariantes, la correlación, la asimetría conjunta y la curtosis conjunta, que prometen hacer de esta presentación de diapositivas una experiencia agradable y perspicaz.

Conclusión: El estudio de variables aleatorias va más allá del análisis de variables individuales. Implica examinar las relaciones, dependencias y distribuciones de múltiples variables.

Al comprender estos conceptos, los investigadores y analistas pueden obtener información valiosa sobre el comportamiento y las interacciones de los sistemas complejos. En las próximas secciones de este capítulo, exploraremos más a fondo la importancia de los diferentes momentos y sus aplicaciones en el análisis estadístico.

Mediana y Rango Intercuartílico: El tema en cuestión es la mediana y su importancia, particularmente en la investigación. Los investigadores, incluidos los de finanzas, están interesados en examinar el rango intercuartílico, lo que implica dividir los datos en cuatro partes y centrarse en la sección central. Sin embargo, como administradores de riesgos financieros, es crucial para nosotros considerar también la cola izquierda de la distribución. Aquí es donde entra en juego el concepto de Valor en Riesgo (VaR), pero profundizaremos en eso más adelante. Por ahora, dediquemos un tiempo a discutir la mediana.

Cálculo de la mediana: Calcular la mediana es intrigante porque difiere según el número de observaciones. Por ejemplo, si tenemos tres pomelos con diferentes cantidades de semillas (3, 5 y 7), la mediana sería el valor medio, que es 5. En muestras de tamaño impar, la mediana es simplemente la observación media. Sin embargo, con un número par de observaciones, tomamos el promedio de los dos valores medios. En nuestro ejemplo de dos pomelos con recuentos de semillas de 5 y 7, la mediana sería (5 + 7) / 2 = 6.

Robustez de la mediana: es importante tener en cuenta que la mediana puede no corresponder a una observación real en el conjunto de datos, especialmente cuando se trata de muestras de tamaño uniforme. Además, la mediana no se ve afectada por valores extremos, lo que la convierte en una medida robusta. Además, sirve como punto medio, particularmente para números más grandes.

Más allá de las variables individuales: Hasta ahora, nos hemos centrado en los momentos de la distribución. Sin embargo, también necesitamos entender los lados izquierdo y derecho de la media. Esto nos lleva al teorema del límite central, que proporciona información sobre el comportamiento de las muestras aleatorias. Cuando extraemos una muestra grande de una población, como 1000 observaciones, la distribución de la media muestral se aproxima a una distribución normal. A medida que aumenta el tamaño de la muestra, la distribución de la media de la muestra se vuelve aún más cercana a una distribución normal. En nuestro caso, podemos tomar mil observaciones de varias tiendas, lo que nos permite calcular las medias muestrales y aproximar la distribución muestral.

Distribución muestral y aproximación: para resumir, si la muestra se distribuye normalmente, la distribución muestral de las medias muestrales también será normal. Sin embargo, cuando la muestra de población es aproximadamente simétrica, la distribución muestral se vuelve aproximadamente normal, especialmente para tamaños de muestra pequeños. Sin embargo, cuando se introduce asimetría en los datos, normalmente se requiere un tamaño de muestra de 30 o más para que la distribución de muestreo se vuelva aproximadamente normal.

Aplicación Práctica: Estimación de Probabilidad: Para ilustrar este concepto, consideremos un ejemplo. Supongamos que tenemos una determinada marca de llantas con una vida media de 30 000 kilómetros y una desviación estándar de 3 600 kilómetros. Queremos determinar la probabilidad de que la vida media de 81 neumáticos sea inferior a 29 200 kilómetros. Al calcular el puntaje z utilizando la información proporcionada y una tabla z, encontramos una probabilidad de aproximadamente 0.02275 o 2.275%. Esto indica que la probabilidad de experimentar una vida media inferior a 29.200 kilómetros es relativamente baja.

Dependencia y relación entre variables: hasta ahora, hemos examinado variables aleatorias individuales. Sin embargo, a menudo nos interesa estudiar la relación entre dos variables, como las tasas de interés y la inflación. Estas dos variables son aleatorias y probablemente presentan un alto grado de correlación. Para evaluar esta relación utilizamos la covarianza, que mide la variabilidad conjunta de dos variables aleatorias a lo largo del tiempo. Al multiplicar la diferencia entre cada observación y su media correspondiente para ambas variables, podemos calcular la covarianza.

Covarianza: La covarianza entre dos variables, X e Y, se puede calcular usando la siguiente fórmula:

cov(X, Y) = Σ((X - μX)(Y - μY)) / (n - 1)

donde X e Y son las variables, μX y μY son sus respectivas medias y n es el número de observaciones.

El signo de la covarianza indica la dirección de la relación entre las variables. Si la covarianza es positiva, sugiere una relación positiva, lo que significa que a medida que aumenta una variable, la otra tiende a aumentar también. Por el contrario, una covarianza negativa indica una relación negativa, donde a medida que aumenta una variable, la otra tiende a disminuir.

Sin embargo, la magnitud de la covarianza por sí sola no proporciona una medida clara de la fuerza de la relación entre las variables, ya que está influenciada por las escalas de las variables. Para superar esta limitación y comprender mejor la fuerza de la relación, podemos utilizar el coeficiente de correlación.

Coeficiente de correlación: el coeficiente de correlación, denotado por r, mide la fuerza y la dirección de la relación lineal entre dos variables. Es una medida estandarizada que oscila entre -1 y 1.

La fórmula para calcular el coeficiente de correlación es:

r = cov(X, Y) / (σX * σY)

donde cov(X, Y) es la covarianza entre X e Y, y σX y σY son las desviaciones estándar de X e Y, respectivamente.

El coeficiente de correlación proporciona información valiosa sobre la relación entre las variables. Si el coeficiente de correlación está cerca de 1 o -1, indica una fuerte relación lineal. Un coeficiente de correlación de 1 indica una relación lineal positiva perfecta, mientras que -1 indica una relación lineal negativa perfecta. Un coeficiente de correlación cercano a 0 sugiere una relación lineal débil o nula entre las variables.

Es importante señalar que correlación no implica causalidad. Incluso si dos variables están altamente correlacionadas, no significa necesariamente que una variable haga que la otra cambie. La correlación simplemente cuantifica el grado en que dos variables se mueven juntas.

Comprender la relación entre las variables a través del análisis de covarianza y correlación permite a los investigadores y analistas obtener información sobre los patrones, las dependencias y el poder predictivo potencial entre diferentes factores. Estas medidas se utilizan ampliamente en varios campos, incluidas las finanzas, la economía, las ciencias sociales y muchos otros, para estudiar las relaciones entre las variables y tomar decisiones informadas.

 

Prueba de hipótesis (FRM Parte 1 2023 - Libro 2 - Capítulo 6)


Prueba de hipótesis (FRM Parte 1 2023 - Libro 2 - Capítulo 6)

En la Parte 1, Libro 2 del curso de análisis cuantitativo, hay un capítulo sobre la prueba de hipótesis. El autor menciona que es probable que este capítulo contenga información que los estudiantes pueden recordar de su clase de estadística de pregrado. El capítulo cubre varios objetivos de aprendizaje, incluida la comprensión de la media muestral y la varianza muestral, la construcción e interpretación de intervalos de confianza, el trabajo con hipótesis nulas y alternativas, la realización de pruebas de una o dos colas y la interpretación de los resultados.

El capítulo comienza con una discusión sobre la media muestral, que se define como la suma de todos los valores de una muestra dividida por el número de observaciones. Si bien el cálculo de la media de la muestra no es el enfoque principal, es esencial comprender su uso al hacer inferencias sobre las medias de la población. El autor enfatiza que, dado que recopilar datos de una población completa a menudo no es práctico, las muestras se seleccionan y las pruebas se realizan según el teorema del límite central, que proporciona una distribución muestral aproximada para la media.

A continuación, el autor destaca la importancia de estimar la desviación estándar de la muestra ya que generalmente se desconoce la desviación estándar de la población. Proporcionan una fórmula para calcular el error estándar de la media muestral. Se da un ejemplo para ilustrar el cálculo, donde la media es $15,50, la desviación estándar es 3,3 y el tamaño de la muestra es 30.

Luego, el capítulo analiza la varianza de la muestra, que mide la dispersión de las observaciones de la media. El autor explica que una varianza más alta indica más riesgo o variabilidad en los datos. Proporcionan una fórmula para calcular la varianza de la muestra, involucrando las diferencias entre las observaciones individuales y la media de la muestra, y dividiéndola por los grados de libertad.

Pasando a los intervalos de confianza, el autor introduce el concepto de niveles de confianza y explica cómo proporcionan un rango dentro del cual se espera que caiga un cierto porcentaje de resultados. Comúnmente se usa un nivel de confianza del 95%, lo que significa que el 95% de las realizaciones de dichos intervalos contendrán el valor del parámetro. El autor presenta una fórmula general para construir intervalos de confianza, que involucra la estimación puntual (por ejemplo, la media de la muestra) más o menos el error estándar multiplicado por el factor de confiabilidad. El factor de confiabilidad depende del nivel de confianza deseado y si la varianza de la población es conocida o desconocida.

El autor proporciona una tabla para seleccionar el factor de confiabilidad apropiado según el nivel de confianza deseado y el tamaño de la muestra. También discuten el uso de puntajes z y puntajes t, dependiendo de si la varianza de la población es conocida o desconocida. Se proporciona un ejemplo para demostrar el cálculo de un intervalo de confianza del 95 % para el tiempo medio dedicado a estudiar para un examen, utilizando una media muestral y una desviación estándar.

Finalmente, el capítulo menciona brevemente la prueba de hipótesis, que implica hacer suposiciones o afirmaciones sobre una característica de la población y realizar pruebas para evaluar su validez. El autor presenta los pasos involucrados en la prueba de hipótesis, incluida la declaración de la hipótesis, la selección del estadístico de prueba, la especificación del nivel de significancia, la definición de la regla de decisión, el cálculo del estadístico muestral y la toma de una decisión.

En general, este capítulo proporciona una descripción general completa de los conceptos importantes en el análisis cuantitativo, centrándose específicamente en la media de la muestra, la varianza de la muestra, los intervalos de confianza y la prueba de hipótesis. Estos temas son fundamentales en el análisis estadístico y proporcionan una base para hacer inferencias y sacar conclusiones de los datos.

 

Diagnóstico de regresión (FRM Parte 1 2023 - Libro 2 - Capítulo 9)


Diagnóstico de regresión (FRM Parte 1 2023 - Libro 2 - Capítulo 9)

En este capítulo, discutiremos el diagnóstico de regresión y su importancia en el análisis de modelos de regresión. Para brindar contexto, consideremos un escenario hipotético en el que estamos examinando los cambios en la calificación crediticia de las emisiones de bonos. Hemos recopilado una gran cantidad de datos sobre varias emisiones de bonos, incluidas variables como flujos de efectivo, índices de apalancamiento, factores de liderazgo, tasas de interés y más. Nuestro objetivo es determinar si Moody's, Standard & Poor's o Fitch cambiarán la calificación crediticia de una emisión de bonos en particular. Para analizar esto, empleamos un modelo de regresión múltiple con el cambio del riesgo de incumplimiento como variable dependiente y las variables independientes como se mencionó anteriormente.

Inicialmente, examinamos el resultado de la regresión producido por un software, como Excel, para evaluar el ajuste general del modelo utilizando métricas como R-cuadrado y la estadística F. También evaluamos la importancia de los coeficientes de pendiente individuales. Sin embargo, es crucial reconocer que estas conclusiones se basan en gran medida en los supuestos del modelo de mínimos cuadrados ordinarios (OLS). Si se violan estos supuestos, las conclusiones extraídas del resultado de la regresión pueden no ser válidas.

Este capítulo puede verse como una guía para comprender y abordar los posibles problemas que pueden surgir en los modelos de regresión. Podría titularse acertadamente "¿Qué podría salir mal?" Exploramos varios problemas que pueden afectar la validez de los resultados de la regresión, incluida la heteroscedasticidad, la multicolinealidad, muy pocas o demasiadas variables independientes, valores atípicos y el mejor estimador lineal no sesgado (BLUE). Profundicemos en cada uno de estos temas con más detalle.

La heterocedasticidad, nuestra primera preocupación, se refiere a la violación del supuesto de que los términos de error en el modelo de regresión tienen varianza constante (homocedasticidad). Cuando hay heterocedasticidad, la varianza de los términos de error no es constante sino que varía entre diferentes observaciones. Podemos visualizar esto como una forma de cono al trazar la relación entre la variable independiente y la variable dependiente. Implica que a medida que aumenta la variable independiente, también aumenta la variabilidad de la variable dependiente. La heterocedasticidad puede ocurrir cuando el modelo está incompleto o cuando el conjunto de datos es pequeño y contiene valores atípicos.

Las consecuencias de la heterocedasticidad son significativas. Los estimadores OLS pierden su eficiencia, lo que significa que existen otros estimadores con varianzas más pequeñas. Esta ineficiencia conduce a errores estándar incorrectos que, a su vez, afectan los intervalos de confianza y las pruebas de hipótesis. En consecuencia, las conclusiones extraídas de estas pruebas pueden ser engañosas o incluso completamente inútiles. Para detectar la heteroscedasticidad, los investigadores pueden usar inicialmente diagramas de dispersión para evaluar visualmente la relación entre las variables. Sin embargo, las pruebas estadísticas como la prueba de White, que explica la no linealidad de los términos de error, proporcionan una evaluación más precisa de la heterocedasticidad. Se puede abordar la heteroscedasticidad a través de mínimos cuadrados ponderados, transformación de datos (por ejemplo, logarítmica), usando ponderaciones en la estimación u otros métodos apropiados.

Pasando a la multicolinealidad, nos encontramos con una situación en la que dos o más variables independientes están altamente correlacionadas. Idealmente, las variables independientes deberían ser independientes entre sí, pero en realidad suele haber algún grado de correlación. Sin embargo, la multicolinealidad perfecta, donde las variables están perfectamente correlacionadas linealmente, puede plantear un problema grave. En tales casos, se debe descartar una de las variables colineales, ya que son esencialmente idénticas. La multicolinealidad imperfecta ocurre cuando las variables independientes están moderada o fuertemente correlacionadas pero no perfectamente. Altas correlaciones entre variables independientes sugieren la presencia de multicolinealidad. Sin embargo, la ausencia de una alta correlación no garantiza su ausencia, ya que las variables pueden estar correlacionadas aleatoriamente hasta cierto punto.

Las consecuencias de la multicolinealidad son dos. Primero, mientras las estimaciones permanecen sin sesgo, la varianza y los errores estándar aumentan.

La inclusión de variables irrelevantes en un modelo de regresión se conoce como problema de sobreespecificación. Esto ocurre cuando agregamos variables independientes que no tienen una relación real con la variable dependiente. La inclusión de dichas variables puede generar estimaciones sesgadas y un uso ineficiente de los recursos.

Por otro lado, también debemos considerar el problema de la subespecificación. Esto sucede cuando se omiten variables independientes importantes del modelo. Como discutimos anteriormente, la omisión de una variable relevante puede conducir a estimaciones sesgadas e inconsistentes.

Para abordar los problemas de especificación excesiva e insuficiente, debemos seleccionar cuidadosamente las variables que se incluirán en nuestro modelo de regresión. Este proceso de selección debe basarse en la teoría, el conocimiento previo y la evidencia empírica. Es importante considerar las relaciones económicas o teóricas subyacentes entre las variables y la variable dependiente.

Otro problema que surge en el análisis de regresión es la presencia de valores atípicos. Los valores atípicos son valores extremos que se desvían significativamente del patrón general de los datos. Estos valores atípicos pueden tener un impacto sustancial en los resultados de la regresión, afectando los coeficientes estimados y el ajuste general del modelo.

Hay varios enfoques para manejar los valores atípicos. Un método común es identificar y eliminar los valores atípicos del conjunto de datos. Esto se puede hacer inspeccionando visualmente el diagrama de dispersión o utilizando técnicas estadísticas como la distancia de Mahalanobis o los residuos estudentizados.

Alternativamente, si los valores atípicos son observaciones influyentes que contienen información importante, podemos optar por mantenerlos en el análisis pero aplicar métodos de regresión robustos que se ven menos afectados por los valores extremos.

Por último, toquemos el concepto del mejor estimador lineal insesgado (AZUL). El AZUL es una propiedad deseable del estimador OLS que asegura que sea insesgado y tenga la varianza más pequeña entre todos los estimadores lineales insesgados.

El estimador OLS logra la propiedad BLUE bajo los supuestos del modelo de regresión lineal clásico, incluidos los supuestos de linealidad, independencia, homocedasticidad y ausencia de multicolinealidad. Las violaciones de estos supuestos pueden conducir a estimaciones sesgadas e ineficientes, como discutimos anteriormente.

El capítulo sobre el diagnóstico de regresión se centra en identificar y abordar los problemas potenciales que pueden surgir en el análisis de regresión. Estos problemas incluyen heterocedasticidad, multicolinealidad, sesgo de variable omitida, especificación excesiva, especificación insuficiente y valores atípicos. Al comprender estos problemas y emplear las técnicas apropiadas, podemos garantizar la confiabilidad y validez de los resultados de nuestra regresión.

 

Métodos de aprendizaje automático - Parte A (FRM Parte 1 2023 - Libro 2 - Análisis cuantitativo - Capítulo 14)


Métodos de aprendizaje automático - Parte A (FRM Parte 1 2023 - Libro 2 - Análisis cuantitativo - Capítulo 14)

Saludos, soy Jim y me gustaría hablar sobre la Parte 1 del libro sobre análisis cuantitativo y métodos de aprendizaje automático. Esta sección tiene como objetivo explorar los conceptos cubiertos en la Parte A y enfatizar la relevancia y la importancia del aprendizaje automático.

Comencemos abordando la estructura de la lectura. Se divide en dos partes, A y B, y la Parte B se cubrirá en un futuro próximo. El objetivo es proporcionar una comprensión integral del aprendizaje automático basándose en el conocimiento adquirido en la Parte A. La esperanza es que completar la Parte A lo inspire a continuar aprendiendo explorando la Parte B.

Si bien puede ser tentador ver esta lectura como una extensión de la teoría clásica de la econometría, el aprendizaje automático va mucho más allá. El aprendizaje automático representa un campo distinto con sus propias características y aplicaciones únicas. Permítanme compartir un ejemplo simple para ilustrar este punto.

En 2023, los fanáticos de la NBA podrían notar que es probable que LeBron James supere a Kareem Abdul-Jabbar como líder anotador de todos los tiempos. Ahora, imaginemos que somos fanáticos entusiastas de la NBA que quieren determinar cuál de estos jugadores excepcionalmente talentosos logró su récord de anotaciones de manera más eficiente y efectiva. Para hacerlo, recopilamos grandes cantidades de datos sobre sus juegos, registrando meticulosamente cada detalle, incluidos los movimientos de LeBron y el tiro Skyhook característico de Kareem. El número de variables que recopilamos podría llegar a billones.

Si tuviéramos que analizar estos datos utilizando la teoría econométrica clásica, podríamos emplear el análisis de regresión y calcular las desviaciones estándar y los errores estándar. Sin embargo, cuando se trata de un billón de puntos de datos, estos cálculos se vuelven poco prácticos. Dividir por la raíz cuadrada de un billón, que es aproximadamente 316 000, da como resultado un número minúsculo que hace que las pruebas de hipótesis sean ineficaces.

Aquí es donde interviene el aprendizaje automático. El aprendizaje automático nos permite procesar cantidades masivas de datos sin las limitaciones impuestas por la teoría econométrica clásica. Las aplicaciones del aprendizaje automático son amplias y van desde el reconocimiento de imágenes y la investigación médica hasta la teoría de juegos y la asignación de activos financieros.

El aprendizaje automático se puede clasificar en tres tipos: aprendizaje no supervisado, supervisado y de refuerzo. El aprendizaje no supervisado implica explorar patrones de datos sin etiquetas predefinidas, mientras que el aprendizaje supervisado utiliza datos etiquetados para entrenar modelos. El aprendizaje por refuerzo permite que un agente aprenda de un entorno dinámico, lo que lo hace particularmente valioso para la gestión de riesgos donde las condiciones cambian con el tiempo.

Aunque el aprendizaje automático tiene un enorme potencial, también presenta desafíos únicos. En los primeros cuatro objetivos de aprendizaje, discutiremos las diferencias entre las técnicas de aprendizaje automático y la econometría clásica. Profundizaremos en conceptos como los componentes principales, el agrupamiento de K-means y las distinciones entre los modelos de aprendizaje no supervisado, supervisado y de refuerzo.

Establecer una base teórica sólida en la econometría clásica es crucial para implementar modelos de manera efectiva. La econometría clásica opera bajo ciertos supuestos, como las relaciones lineales entre variables y la presencia de causalidad. Por el contrario, el aprendizaje automático proporciona un marco más flexible, lo que permite relaciones no lineales y mayores cantidades de datos.

Para hacer que los datos sean adecuados para los algoritmos de aprendizaje automático, necesitamos escalarlos y preprocesarlos. Esto implica la estandarización o normalización para garantizar que los datos sean comparables y representen con precisión la información subyacente. Además, comprender los algoritmos de aprendizaje automático y sus resultados es esencial para evaluar los resultados y realizar los ajustes necesarios.

El aprendizaje automático encuentra utilidad en varias situaciones, incluido el reconocimiento de imágenes, la selección de seguridad, la evaluación de riesgos y los juegos. Al aprovechar las técnicas de aprendizaje automático, podemos abordar problemas complejos y extraer información significativa de conjuntos de datos grandes y diversos.

Ahora, con respecto a mi proveedor de correo electrónico, carece de competencia para identificar spam. Solo clasifica los correos electrónicos como spam si son extremadamente spam y se originan en fuentes como XYZ 627 en 337-1414 punto algo algo. Cambiemos nuestro enfoque a los tipos de aprendizaje supervisado. El primer tipo es la clasificación, que mencioné anteriormente en el contexto de LeBron y Kareem. Implica clasificar los datos en diferentes clases, como predeterminados o no predeterminados. El aprendizaje supervisado también abarca el análisis de regresión. Algunos ejemplos de algoritmos de aprendizaje supervisado incluyen K-vecino más cercano, árboles de decisión, redes neuronales y máquinas de vectores de soporte. Estos algoritmos se explorarán más a fondo en la próxima lectura.

Ahora, profundicemos en el tercer tipo de aprendizaje: el aprendizaje por refuerzo. Como mencioné anteriormente, el aprendizaje por refuerzo es similar al ensayo y error, siendo el ajedrez un ejemplo clásico. En este tipo de aprendizaje, un agente, que representa el sistema de aprendizaje, interactúa con el entorno, toma decisiones y aprende de los resultados. El agente recibe recompensas por el comportamiento deseado y sanciones por el comportamiento indeseable. Su objetivo es maximizar las recompensas y minimizar las penalizaciones, aprendiendo continuamente y mejorando el desempeño. El agente interpreta el entorno, forma percepciones y toma acciones basadas en ellas.

El aprendizaje por refuerzo opera de manera cíclica, iterando y adaptándose constantemente a entornos cambiantes. Las recompensas y sanciones deben reflejar el entorno en evolución. Por ejemplo, si un agente intenta engañar a un sistema de reconocimiento facial usando un disfraz pero lo atrapan debido a una cara mal oculta, se le debe dar otra oportunidad en lugar de ser penalizado excesivamente. El agente aprende tanto de los errores como de los aciertos para optimizar sus acciones.

Para visualizar este proceso, imagine un cuadro azul que represente el entorno. El agente, antropomorfizado como una persona que vive dentro del algoritmo, navega en este entorno y se esfuerza por volverse más inteligente siguiendo un camino de prueba y error. Las experiencias del agente en el entorno cambiante dan forma a su proceso de aprendizaje. El objetivo es maximizar las recompensas y minimizar las sanciones, lo que presenta una pregunta de examen intrigante.

Ahora exploremos el análisis de componentes principales (PCA). Esta técnica simplifica conjuntos de datos complejos al reducir su dimensionalidad. PCA ayuda a identificar las variables más importantes dentro de un conjunto de datos, lo que lleva a una mejor interpretabilidad de los modelos. El proceso implica proyectar un conjunto de datos de entrenamiento en un espacio de menor dimensión, también conocido como hiperplano. Comienza con la estandarización o normalización de los datos y el cálculo de la matriz de covarianza. A continuación, los principales componentes principales se seleccionan en función de la dimensionalidad deseada. Luego, los datos se proyectan en este espacio reducido, capturando la mayor variación. Este análisis permite a los investigadores determinar qué variables son las más significativas para explicar los datos.

Otro tema fascinante es el agrupamiento, que se incluye en el aprendizaje no supervisado. El objetivo de la agrupación es agrupar puntos de datos en función de su similitud con un centroide. El algoritmo comienza asignando aleatoriamente K centroides y luego asigna cada punto de datos al centroide más cercano, creando K grupos. Continúa reasignando iterativamente los puntos de datos y ajustando los centroides para minimizar la suma de las distancias al cuadrado. La calidad del agrupamiento puede variar, con algunos clústeres mejor definidos que otros. Encontrar el número óptimo de conglomerados (K) y mejorar el proceso de conglomerado es esencial.

Estas diversas técnicas de aprendizaje ofrecen herramientas valiosas para analizar e interpretar datos, lo que permite el reconocimiento de patrones, la toma de decisiones y la optimización en diversos campos de estudio. Si bien la econometría clásica proporciona una base sólida, adoptar el aprendizaje automático nos permite superar las limitaciones de los métodos tradicionales y explorar una amplia gama de aplicaciones.

 

Aprendizaje automático y predicción - Parte A (FRM Parte 1 2023 - Libro 2 - Capítulo 15)


Aprendizaje automático y predicción - Parte A (FRM Parte 1 2023 - Libro 2 - Capítulo 15)

Hola, soy Jim y lo guiaré a través de la Parte 1 del libro, titulada "Análisis cuantitativo y el papel del aprendizaje automático y la predicción". En esta sección, nos centraremos en los primeros tres objetivos de aprendizaje de la Parte A. Antes de sumergirnos en los detalles, permítanme resumir rápidamente la lectura anterior, que tenía tanto la Parte A como la Parte B. En esa lectura, exploramos las limitaciones de análisis de regresión clásico y discutido cuando los modelos alternativos, como el aprendizaje automático, son necesarios. El aprendizaje automático nos permite manejar grandes conjuntos de datos sin las suposiciones restrictivas de los modelos econométricos clásicos.

También dedicamos un tiempo considerable a discutir los conceptos de sobreajuste y desajuste, y los desafíos asociados con la simplificación y la complejidad. En esta lectura, nos basaremos en esas discusiones y exploraremos técnicas adicionales que no se cubrieron anteriormente. Los tres primeros objetivos de aprendizaje de esta lectura son la regresión lineal, la regresión logística y Ridge y Lasso.

La regresión lineal es un concepto familiar, donde establecemos una relación entre variables. Sin embargo, la regresión lineal puede no ser adecuada cuando necesitamos predecir probabilidades entre 0 y 100. En tales casos, entra en juego la regresión logística. La regresión logística nos permite modelar variables con resultados binarios, como si un cliente pagará un préstamo o no pagará. A diferencia de la regresión lineal, la regresión logística proporciona probabilidades dentro de un rango válido de 0 a 1, lo que permite la clasificación binaria.

A continuación, discutiremos las técnicas de regularización, específicamente Ridge y Lasso. La regularización ayuda a abordar la complejidad de nuestros modelos al reducir o reducir su complejidad. Exploraremos cómo se pueden usar estas técnicas para mitigar las limitaciones de la regresión lineal.

Para comprender mejor estos conceptos, revisemos la regresión lineal. La regresión de mínimos cuadrados ordinarios asume una relación lineal entre las variables independientes y dependientes, minimizando la distancia entre los puntos de datos y una línea hipotética. Sin embargo, en el aprendizaje automático, nos referimos a estas variables como características en lugar de variables dependientes e independientes debido a su gran número.

La regresión lineal múltiple amplía este concepto para incluir múltiples variables independientes, lo que da como resultado un modelo con una intersección (alfa), pendientes (beta) y las correspondientes variables independientes (x1, x2, etc.). El objetivo es minimizar la suma residual de cuadrados (RSS), que representa la diferencia entre los valores reales y predichos. Si bien nos esforzamos por lograr predicciones precisas, es prácticamente imposible lograr una precisión del 100 % en escenarios del mundo real.

Aquí es donde entra en juego la regresión logística. En lugar de forzar una relación lineal, la regresión logística transforma el resultado en una curva sigmoidea, asegurando que las probabilidades estén dentro del rango de 0 a 1. Al usar la base del logaritmo natural (e), podemos calcular valores futuros, como tasas de interés compuestas. La regresión logística emplea la estimación de máxima verosimilitud para modelar la relación entre las variables. Tomando el logaritmo de ambos lados de la ecuación, simplificamos el proceso de estimación, dando como resultado el modelo de regresión logística.

Una de las ventajas de la regresión logística es su facilidad de interpretación. Maneja resultados binarios y proporciona probabilidades, lo que lo hace útil para varias aplicaciones, como predecir incumplimientos de préstamos o tendencias del mercado de valores. Sin embargo, la regresión logística también tiene limitaciones, incluido el potencial de sobreajuste y problemas con la multicolinealidad. Además, la salida está limitada a probabilidades entre 0 y 1, eliminando la posibilidad de valores ilógicos como 114%.

Para demostrar la regresión logística, consideremos un ejemplo que involucre el puntaje crediticio y la relación deuda-ingreso como predictores de incumplimiento de pago. Al analizar los datos de 500 clientes, podemos generar probabilidades de incumplimiento utilizando el modelo de regresión logística.

A las variables categóricas, como si una persona está jubilada o no, no se les pueden asignar etiquetas numéricas directamente. Por lo tanto, empleamos técnicas de codificación, como el mapeo, la creación de variables ficticias o la categorización ordinal, para representar estas variables en el modelo.

Un método común para codificar variables categóricas se llama mapeo. En este enfoque, asignamos etiquetas numéricas a diferentes categorías de una variable. Por ejemplo, si tenemos una variable categórica llamada "estado_empleo" con las categorías "empleado", "trabajador por cuenta propia" y "desempleado", podemos asignar etiquetas numéricas como 1, 2 y 3, respectivamente, para representar estas categorías. en el modelo de regresión logística.

Otro enfoque es la creación de variables ficticias. Las variables ficticias son variables binarias que representan diferentes categorías de una variable categórica. A cada categoría se le asigna una variable ficticia independiente, que toma el valor 1 si la observación pertenece a esa categoría y 0 en caso contrario. Por ejemplo, si tenemos una variable categórica llamada "nivel_de_educación" con las categorías "escuela secundaria", "universidad" y "escuela de posgrado", crearíamos dos variables ficticias: "universidad" y "escuela de posgrado". Estas variables ficticias tomarían el valor 1 si la observación corresponde a la categoría respectiva y 0 en caso contrario.

La categorización ordinal es otra técnica utilizada para codificar variables categóricas. Implica asignar etiquetas numéricas a las categorías en función de su orden o clasificación. Este enfoque es adecuado cuando las categorías tienen un orden o jerarquía inherente. Por ejemplo, si tenemos una variable llamada "nivel_de_satisfacción" con las categorías "bajo", "medio" y "alto", podemos asignar etiquetas numéricas 1, 2 y 3 para representar el nivel creciente de satisfacción.

Una vez que hemos codificado las variables categóricas, podemos incluirlas junto con las variables numéricas en el modelo de regresión logística. El algoritmo de regresión logística luego estimará los coeficientes para cada variable, indicando su impacto en la probabilidad del resultado binario.

Además de la regresión logística, también exploraremos técnicas de regularización llamadas Ridge y Lasso. La regularización se utiliza para abordar el problema del sobreajuste en el modelo. El sobreajuste ocurre cuando el modelo captura ruido o fluctuaciones aleatorias en los datos de entrenamiento, lo que genera un rendimiento deficiente en datos no vistos.

Ridge y Lasso son dos técnicas de regularización populares que agregan un término de penalización al modelo de regresión. Este término de penalización ayuda a controlar la complejidad del modelo al reducir o reducir los coeficientes de las variables. La regresión de Ridge agrega un término de penalización proporcional a la suma de los coeficientes al cuadrado, mientras que la regresión de Lasso agrega un término de penalización proporcional a la suma de los valores absolutos de los coeficientes.

Al introducir estos términos de penalización, la regresión de Ridge y Lasso anima al modelo a encontrar un equilibrio entre ajustar bien los datos de entrenamiento y mantener la complejidad del modelo bajo control. Esto ayuda a evitar el sobreajuste y mejora el rendimiento de generalización del modelo en datos no vistos.

En la Parte 1 del libro, cubriremos la regresión lineal, la regresión logística y técnicas de regularización como Ridge y Lasso. Exploraremos cómo se pueden aplicar estos métodos a diferentes tipos de datos y cómo pueden mejorar la precisión de la predicción. Los ejemplos y conceptos discutidos proporcionarán una base sólida para comprender el análisis cuantitativo y el papel del aprendizaje automático en la predicción.

 

Aprendizaje automático y predicción - Parte B (FRM Parte 1 2023 - Libro 2 - Capítulo 15)


Aprendizaje automático y predicción - Parte B (FRM Parte 1 2023 - Libro 2 - Capítulo 15)

Hola, soy Jim y me gustaría hablar sobre la primera parte del libro, que se centra en el análisis cuantitativo, específicamente en el aprendizaje automático y la predicción. En la Parte B, profundizaremos en nuevos conceptos como árboles de decisión, aprendizaje conjunto y redes neuronales. Comencemos revisando los árboles de decisión.

En la sección anterior, exploramos los árboles de decisión para calcular los precios de los bonos, en particular para los bonos con opciones integradas. El árbol de decisiones para el precio de los bonos tenía una estructura de árbol con ramas y nodos que representaban diferentes decisiones y resultados. Para los bonos con opciones integradas, las decisiones se tomaron en cada nodo con base en si el bono se llamaría a una tasa de interés específica.

En el aprendizaje automático, los árboles de decisión siguen una estructura similar pero con una orientación diferente. En lugar de ramificarse horizontalmente como en el precio de los bonos, los árboles de decisión en el aprendizaje automático progresan verticalmente de arriba a abajo. En cada nodo, se hace una pregunta, lo que lleva a los nodos posteriores y finalmente llega a una decisión o resultado.

Tomemos el ejemplo de un árbol de decisión para un bono exigible, al que llamamos árbol de tipos de interés. En este caso, las decisiones fueron sencillas, ya que solo necesitábamos determinar si el bono se rescataría o no a una tasa de interés específica. Sin embargo, en los árboles de decisión de aprendizaje automático, las decisiones están determinadas por algoritmos que analizan varios factores y toman determinaciones más complejas.

Si bien los modelos de fijación de precios de bonos generalmente no involucran el aprendizaje automático, si tuviéramos que analizar la probabilidad de incumplimiento de pago de un bono, necesitaríamos considerar características adicionales como los flujos de efectivo operativos de la empresa, la relación deuda-capital, la calidad de la gestión y las líneas de productos. . Esta complejidad destaca la diferencia entre los árboles de decisión en la fijación de precios de bonos tradicionales y los del aprendizaje automático.

En los árboles de decisión de aprendizaje automático, nuestro objetivo es clasificar o predecir la clase de una entrada. Por ejemplo, podemos querer determinar si una empresa pagará dividendos en función de la rentabilidad y el flujo de caja libre. Estas características contribuyen a la complejidad del árbol de decisión, ya que se requieren más ramas y nodos para tener en cuenta múltiples factores.

La complejidad de los árboles de decisión aumenta cuando se incluyen características adicionales en el modelo. Con cada división en el árbol, el modelo de aprendizaje automático puede cometer errores, lo que nos lleva al concepto de ganancia de información. La ganancia de información mide la utilidad de una función para predecir la variable de destino. Cuantifica la reducción de la incertidumbre proporcionada por cada característica en el árbol de decisión.

La ganancia de información se puede calcular utilizando el coeficiente de Gini o la entropía. Ambas medidas arrojan resultados similares, por lo que no hay una ventaja significativa en usar una sobre la otra. Lo animo a explorar ambos enfoques, ya que el material de lectura cubre el coeficiente de Gini, mientras que la entropía se analiza en este contexto.

Consideremos un ejemplo simple para ilustrar el cálculo de la entropía. Tenemos una tabla con los datos de los titulares de tarjetas de crédito, incluidos los morosos, los ingresos altos y los pagos atrasados. Queremos determinar si un préstamo incumplirá en función de estas características. El objetivo es la clasificación y la predicción.

Al aplicar la fórmula de entropía, calculamos la entropía para los datos dados. Sumamos las probabilidades de cada resultado y tomamos el logaritmo en base 2 de esas probabilidades. En este ejemplo, la entropía es 0,954, que le hemos proporcionado.

A continuación, examinemos la característica de altos ingresos como la primera división. Observamos que cuatro de cada ocho tarjetahabientes tienen ingresos altos, mientras que los cuatro restantes tienen ingresos bajos. Entre aquellos con altos ingresos, dos incumplieron y dos no lo hicieron. Para el grupo de ingresos no altos, uno incumplió y tres no lo hicieron.

Calculando la entropía para cada característica, encontramos que la entropía para la característica de altos ingresos es 0.811. Para determinar la ganancia de información, restamos este valor de la entropía inicial de 0,954. La ganancia de información resultante es 0,143.

Esto muestra que la característica de ingresos altos proporciona una reducción de la incertidumbre o entropía de 0,143.

Para continuar construyendo el árbol de decisión, necesitamos evaluar otras características y calcular también su ganancia de información. Repetimos el proceso para cada característica, dividiendo los datos en función de diferentes atributos y calculando la entropía y la ganancia de información.

Digamos que consideramos la función de pagos atrasados a continuación. Entre los cuatro titulares de tarjetas de crédito que se atrasaron en los pagos, tres incumplieron y uno no. Para aquellos que no hicieron pagos atrasados, no hubo incumplimientos. Calculando la entropía para la característica de pagos atrasados, encontramos que es 0.811.

La ganancia de información para la característica de pagos atrasados se obtiene restando su entropía de la entropía inicial de 0,954. Por lo tanto, la ganancia de información para la característica de pagos atrasados es 0,143, que es la misma que la de la característica de ingresos altos.

En este punto, hemos evaluado dos características y determinado su ganancia de información. Ahora, necesitamos comparar la ganancia de información de estas funciones para decidir cuál usar como la primera división en nuestro árbol de decisión. Dado que ambas funciones tienen la misma ganancia de información, podemos elegir cualquiera de ellas como punto de partida.

Una vez que se selecciona la primera característica, el árbol de decisiones se ramificará aún más y repetimos el proceso para los subconjuntos de datos restantes hasta que lleguemos a una decisión o resultado final. El objetivo es crear un árbol de decisiones que maximice la obtención de información en cada paso y proporcione las predicciones o clasificaciones más precisas.

Es importante tener en cuenta que los árboles de decisión pueden sufrir un ajuste excesivo si se vuelven demasiado complejos o si se entrenan con datos limitados. El sobreajuste ocurre cuando el árbol de decisiones aprende demasiado bien el ruido o las peculiaridades de los datos de entrenamiento y no logra generalizar bien a los datos nuevos e invisibles.

Para mitigar el sobreajuste, se pueden emplear técnicas como la poda, la regularización y la validación cruzada. Estos métodos ayudan a simplificar el árbol de decisiones y evitan que se vuelva demasiado complejo, lo que garantiza que pueda hacer predicciones precisas sobre nuevos datos.

Los árboles de decisión son solo un aspecto del aprendizaje automático que se trata en la Parte 1 del libro. Proporcionan una base para comprender conceptos más avanzados, como el aprendizaje conjunto y las redes neuronales, que exploraremos en la Parte 2.

Cuando estaba en la escuela de posgrado, nuestro profesor siempre enfatizó la importancia de aprender de los errores, a lo que se refirió como el "término perturbador". Destacó el valor de no ignorar estos errores simplemente porque su valor esperado era cero. Inicialmente, pensé que sería más fácil ignorarlos y tomar atajos, pero con el tiempo me di cuenta de la importancia de comprender y aprender de estos errores.

Nuestro profesor a menudo trazó paralelismos entre aprender de los errores en los deportes y aprender de los errores en el modelado. Explicó cómo los atletas, como yo en mi juventud, cometían errores y aprendían de ellos para mejorar su desempeño en el campo. Esta analogía me hizo darme cuenta de que podríamos aplicar el mismo concepto para construir mejores modelos aprendiendo de los términos de perturbación y mejorando nuestras predicciones.

El refuerzo, como explicó nuestro profesor, se presenta en dos formas: refuerzo adaptativo y refuerzo de gradiente. En el impulso adaptativo, identificamos los términos de perturbación que causan la mayoría de los problemas y nos enfocamos en aprender de ellos. Este enfoque nos ayuda a transformar un modelo débil en uno poderoso, reduciendo los sesgos y aumentando la precisión.

Por otro lado, el aumento de gradiente establece un umbral predeterminado y tiene como objetivo superarlo ajustando el algoritmo. Por ejemplo, si tenemos un modelo para predecir pagos de dividendos y queremos lograr un 75% de precisión, entrenamos el algoritmo para tomar decisiones que conduzcan a ese nivel de precisión. La mejora de gradiente adopta un enfoque más específico en comparación con la generalización de la mejora adaptativa.

Pasando al método K vecino más cercano (KNN), implica medir la distancia entre las variables observadas para determinar su similitud. A diferencia del agrupamiento, que se enfoca en encontrar grupos, KNN busca vecinos y analiza sus características. Al medir la distancia entre un nuevo punto de datos y sus vecinos, KNN predice la clase o el valor de ese punto en función del voto mayoritario o el promedio ponderado de sus vecinos.

KNN es un algoritmo simple pero poderoso que se puede aplicar tanto a tareas de clasificación como de regresión. No requiere suposiciones sobre la distribución de datos subyacente, por lo que es un método no paramétrico. Sin embargo, tiene sus limitaciones. La elección del número de vecinos (K) es crucial, ya que seleccionar un K pequeño puede resultar en un sobreajuste, mientras que un K grande puede conducir a una simplificación excesiva. Además, KNN puede ser computacionalmente costoso para grandes conjuntos de datos, ya que requiere calcular distancias para cada punto de datos.

El concepto de redes neuronales es fascinante y ha ganado mucha atención en los últimos años. Las redes neuronales están inspiradas en la estructura y función del cerebro humano y consisten en nodos interconectados o neuronas artificiales llamadas perceptrones. Estos perceptrones procesan y transmiten información, lo que permite que la red neuronal aprenda patrones complejos y haga predicciones.

El libro analiza la arquitectura de la red neuronal feedforward, que consta de una capa de entrada, una o más capas ocultas y una capa de salida. Cada capa se compone de múltiples perceptrones que están conectados a las capas adyacentes. La capa de entrada recibe los datos iniciales, que luego pasan a través de la red, experimentando transformaciones y cálculos en cada capa oculta antes de producir una salida.

Entrenar una red neuronal implica ajustar los pesos y sesgos de los perceptrones para minimizar el error o la función de pérdida. Este proceso a menudo se realiza mediante retropropagación, que calcula los gradientes del error con respecto a los parámetros de la red y los actualiza en consecuencia.

Las redes neuronales han demostrado un éxito notable en diversas aplicaciones, como el reconocimiento de imágenes y voz, el procesamiento del lenguaje natural y los sistemas de recomendación. Sin embargo, pueden ser computacionalmente intensivos y requieren grandes cantidades de datos para el entrenamiento. El sobreajuste también puede ser un problema con las redes neuronales, y las técnicas de regularización, como la deserción y la disminución del peso, se utilizan para abordar este problema.

Con esto concluye la descripción general de los temas tratados en la Parte 1 del libro. Hemos discutido árboles de decisión, ganancia de información, overfitting, boosting, KNN y redes neuronales. Estos conceptos proporcionan una base sólida para comprender el aprendizaje automático y la predicción.

Profundicemos en la siguiente sección del libro, la Parte 2, donde exploraremos conceptos más avanzados como el aprendizaje conjunto y las redes neuronales.

El aprendizaje conjunto es una técnica poderosa que combina múltiples modelos individuales para hacer predicciones o clasificaciones. La idea detrás del aprendizaje conjunto es que al agregar las predicciones de múltiples modelos, podemos lograr un mejor rendimiento y una mayor precisión que lo que podría lograr un solo modelo por sí solo.

Un método popular de aprendizaje por conjuntos se llama bosque aleatorio. Combina las predicciones de múltiples árboles de decisión para hacer una predicción final. Cada árbol de decisión se entrena en un subconjunto aleatorio de datos y, durante la fase de predicción, la predicción final se obtiene promediando o votando las predicciones de todos los árboles individuales.

Los bosques aleatorios ofrecen varias ventajas. Son robustos contra el sobreajuste y tienden a tener buenas capacidades de generalización. Pueden manejar grandes conjuntos de datos y espacios de características de alta dimensión de manera efectiva. Además, los bosques aleatorios pueden proporcionar información sobre la importancia de las funciones, lo que nos permite obtener información sobre los datos subyacentes.

Otro método de aprendizaje conjunto es el aumento de gradiente, que mencionamos brevemente anteriormente. El aumento de gradiente crea un modelo sólido al agregar iterativamente modelos débiles al conjunto, y cada modelo débil corrige los errores cometidos por los modelos anteriores. Este proceso iterativo reduce el error general y mejora el poder predictivo del conjunto.

Los algoritmos de aumento de gradiente, como XGBoost y LightGBM, han ganado popularidad debido a su efectividad en varias competencias de aprendizaje automático y aplicaciones del mundo real. Sobresalen en el manejo de datos estructurados y tienen la capacidad de capturar patrones complejos e interacciones entre características.

Pasando a las redes neuronales, mencionamos su arquitectura y proceso de entrenamiento anteriormente. Las redes neuronales han mostrado un rendimiento excepcional en tareas que implican el reconocimiento de patrones, como el reconocimiento de imágenes y de voz. También se pueden aplicar al análisis de series de tiempo, procesamiento de lenguaje natural y muchos otros dominios.

El aprendizaje profundo, un subconjunto de las redes neuronales, se enfoca en entrenar redes neuronales con múltiples capas ocultas. Las redes neuronales profundas son capaces de aprender representaciones jerárquicas de datos, donde cada capa aprende características cada vez más abstractas. Esta capacidad de extraer automáticamente características complejas de datos sin procesar ha contribuido al éxito del aprendizaje profundo en varios dominios.

Las redes neuronales convolucionales (CNN) son particularmente efectivas en las tareas de reconocimiento de imágenes, ya que aprovechan las relaciones espaciales entre los píxeles de una imagen. Las redes neuronales recurrentes (RNN) se usan comúnmente para el análisis de datos secuenciales, como el procesamiento del lenguaje natural y el reconocimiento de voz, ya que pueden capturar dependencias temporales.

Vale la pena señalar que el éxito de las redes neuronales depende en gran medida de la disponibilidad de grandes conjuntos de datos etiquetados para el entrenamiento. Además, las redes neuronales profundas a menudo requieren recursos computacionales significativos y tiempos de entrenamiento más prolongados. Sin embargo, los avances en hardware, como las unidades de procesamiento de gráficos (GPU) y los aceleradores de hardware especializados, han hecho que el entrenamiento de redes neuronales profundas sea más accesible.

A medida que avanzamos en la Parte 2 del libro, profundizaremos en estos temas avanzados, explorando las complejidades del aprendizaje conjunto, varias arquitecturas de redes neuronales, técnicas de optimización y consideraciones prácticas para aplicar estas técnicas a problemas del mundo real.
 

Teoría de los factores (FRM Parte 2 2023 – Libro 5 – Capítulo 1)



Teoría de los factores (FRM Parte 2 2023 – Libro 5 – Capítulo 1)

Este texto es de la Parte Dos, Libro Cinco de "Gestión de Riesgos y Gestión de Inversiones" y se centra específicamente en el capítulo sobre la teoría de factores.

El texto comienza explicando que la teoría de los factores tiene como objetivo identificar los factores comunes que influyen en el rendimiento de las carteras y las acciones individuales. Estos factores pueden incluir tasas de interés, movimientos del mercado, inflación, cambios en el PIB y más. Al comprender cómo estos factores afectan a las diferentes acciones, los inversores pueden tomar decisiones informadas sobre sus carteras.

El capítulo enfatiza que la teoría de los factores se enfoca en los factores mismos más que en los activos individuales. Factores como las tasas de interés, la inflación y el crecimiento económico tienen un impacto más significativo en los precios de las acciones que compañías específicas como Apple o Bank of America. Los inversores deben mirar más allá de los activos individuales e identificar los factores de riesgo subyacentes que impulsan los rendimientos.

Los factores se consideran los determinantes últimos del rendimiento y los activos representan paquetes de factores. El capítulo destaca la importancia de considerar las correlaciones, las cópulas y la exposición óptima al riesgo, ya que diferentes inversores pueden tener distintas preferencias y perfiles de riesgo.

Luego, el texto pasa a discutir el modelo de un factor, refiriéndose al Modelo de fijación de precios de activos de capital (CAPM). CAPM describe la relación de equilibrio entre el riesgo sistemático (variabilidad en los rendimientos de las acciones debido a factores económicos) y los rendimientos esperados. El modelo asume que el único factor relevante es la cartera de mercado y que las primas de riesgo están determinadas por beta, una medida de la sensibilidad de la acción a los movimientos del mercado.

El capítulo explica que los inversores racionales diversifican sus carteras para mitigar el riesgo. Sin embargo, los riesgos diversificables no deben asociarse con una prima, ya que pueden diversificarse fácilmente. El foco debe estar en el riesgo sistemático, que es donde reside la prima de riesgo.

En el texto se presentan dos versiones del CAPM. La primera versión tiene en cuenta la tasa libre de riesgo y el rendimiento esperado de la cartera de mercado, mientras que la segunda versión introduce beta como una medida de riesgo sistemático. Beta es la covarianza entre la acción individual y la cartera de mercado dividida por la varianza de la cartera de mercado. Representa la sensibilidad de la acción a los cambios en los factores económicos.

El texto enfatiza que beta captura el riesgo sistemático y determina el rendimiento esperado de las acciones individuales. Una beta más alta indica un riesgo sistemático más alto y rendimientos potencialmente más altos, mientras que una beta más baja indica un riesgo más bajo y rendimientos más bajos potenciales. Sin embargo, la relación entre beta y rentabilidad no es lineal.

El capítulo concluye destacando algunas lecciones del CAPM. La cartera de mercado es el único factor existente, y cada inversor mantiene sus exposiciones de riesgo de factor óptimas. Los inversionistas adversos al riesgo pueden preferir valores gubernamentales, mientras que los inversionistas tolerantes al riesgo asignan más riqueza a activos riesgosos. La línea de asignación de activos de capital permite a los inversores moverse a lo largo de la frontera eficiente, que representa las carteras con la desviación estándar mínima para un nivel dado de rendimiento esperado.

La noción de que los impuestos tuvieron poco impacto en los rendimientos es un factor significativo a considerar. Si bien se cree comúnmente que los mercados no tienen fricciones, esta suposición no es del todo cierta. La disciplina de las finanzas se originó en 1958, dirigida principalmente por economistas como Madiganian Miller. Sin embargo, durante las décadas de 1950 y 1960, no hubo doctorados. programas específicamente enfocados en finanzas. Por lo tanto, los pioneros de las finanzas modernas se basaron en la suposición de que los mercados eran perfectos y que los inversores no tenían control sobre los precios. Sin embargo, ahora entendemos que los inversores institucionales a veces pueden causar movimientos de precios significativos, y la información no siempre está disponible para todos, como señaló el economista Milton Friedman.

Aunque prefiero referirme a ellas como limitaciones, existen fallas en el Modelo de Valoración de Activos de Capital (CAPM). El modelo enfrenta una presión sustancial para capturar todos los factores de riesgo que afectan la cartera de mercado y la beta. Esta es la razón por la que los modelos multifactoriales han ganado popularidad, ya que tienen en cuenta múltiples factores de riesgo que influyen en los rendimientos de las acciones individuales.

Antes de profundizar en la mecánica de los modelos multifactoriales, comparemos brevemente los dos enfoques. Ambos modelos nos enseñan lecciones importantes. Lección uno: la diversificación funciona, aunque puede funcionar de manera diferente en cada modelo. Lección dos: cada inversor encuentra su posición preferida en la frontera eficiente o línea del mercado de capitales, aunque a través de métodos diferentes. Lección tres: el inversionista promedio tiene la cartera de mercado, pero el CAPM permite un movimiento lineal alejándose de ella utilizando bonos del Tesoro o derivados, mientras que el modelo multifactorial permite un movimiento tanto lineal como no lineal basado en la exposición de los factores. Lección cuatro: el factor de mercado tiene un precio de equilibrio bajo el CAPM, mientras que los modelos multifactoriales determinan el equilibrio a través de primas de riesgo sin condiciones de arbitraje. Lección cinco: ambos modelos involucran beta en el CAPM y exposición factorial en el modelo multifactorial. Finalmente, los malos tiempos en el CAPM se definen explícitamente como bajos rendimientos de mercado, mientras que los modelos multifactoriales buscan identificar activos atractivos durante dichos períodos.

Ahora exploremos los factores de descuento estocástico y su relación con los modelos CAPM y multifactorial. Para ilustrar este concepto, usemos una analogía del clima. Imagínese que mi primo y yo vivimos con 20 minutos de diferencia y con frecuencia discutimos sobre el clima. Cuando es un día nublado, uno de nosotros puede decir: "Solo está lloviznando", mientras que el otro puede exclamar: "¡Está lloviendo a cántaros!". En esta analogía, el día nublado representa la cartera de mercado en el CAPM, mientras que las nubes de lluvia simbolizan los factores adicionales que afectan nuestra capacidad de administrar nuestros patios. De manera similar, los factores de descuento estocásticos representan la exposición a diferentes factores de riesgo o estados económicos, similares a nubes de lluvia específicas que afectan a diferentes regiones.

El precio de un activo depende de las expectativas del factor de descuento estocástico (m) multiplicado por el pago. Por ejemplo, si te prometo pagarte $100 en un año, el precio que pagarías hoy depende de lo que planee hacer con ese dinero. Si invierto en un bono del tesoro libre de riesgo, podría pagarme $97 hoy, suponiendo que no haya costos de transacción. Sin embargo, si invierto en un valor de renta variable de alto riesgo, es posible que me pague una cantidad menor, como $60 o $40, teniendo en cuenta el riesgo asociado. Alternativamente, si fuera a apostar en Las Vegas, la cantidad que pagaría podría variar significativamente, dependiendo de las probabilidades de ganar o perder. Por lo tanto, el factor de descuento estocástico depende de varios factores.

Además, los núcleos de precios, representados por los factores de descuento estocásticos, no son constantes sino dinámicos. Cambian con el tiempo, especialmente cuando se trata de derechos contingentes y valores con opciones incorporadas. Esta naturaleza dinámica permite la cotización precisa de valores con contingencias.

Para concluir, la Hipótesis del Mercado Eficiente de Eugene Fama establece que el precio de un valor financiero, como Apple o Johnson & Johnson, refleja completamente toda la información disponible en el mercado. Esto implica que es imposible superar constantemente al mercado negociando activamente o seleccionando valores individuales.

Sin embargo, el concepto de mercados eficientes ha evolucionado con el tiempo y ahora se reconoce ampliamente que los mercados no siempre son perfectamente eficientes. Los estudios de finanzas conductuales han demostrado que los inversionistas no siempre son racionales y pueden verse influenciados por sesgos psicológicos, lo que genera ineficiencias en el mercado y oportunidades para que los inversionistas calificados generen rendimientos excesivos.

Además, el desarrollo de modelos multifactoriales ha proporcionado una comprensión más matizada de la fijación de precios de activos. Estos modelos van más allá del CAPM de un solo factor y tienen en cuenta múltiples factores de riesgo que pueden explicar las variaciones en los rendimientos de los activos. Factores como el tamaño de la empresa, el valor, el impulso y la rentabilidad se han identificado como importantes impulsores de los rendimientos.

Al incorporar estos factores en los modelos de fijación de precios, los inversores pueden obtener una visión más completa de la valoración de activos y tomar decisiones de inversión más informadas. Por ejemplo, una acción con una alta exposición al factor de valor puede considerarse infravalorada y presentar una oportunidad de inversión atractiva.

Vale la pena señalar que, si bien los modelos multifactoriales han ganado popularidad, no están exentos de desafíos. Determinar qué factores incluir y cómo sopesarlos requiere un análisis y una consideración cuidadosos. Además, el rendimiento de los modelos multifactoriales puede variar con el tiempo, y es posible que los factores que históricamente han tenido éxito no sigan proporcionando rendimientos superiores en el futuro.

En general, este capítulo sobre la teoría de los factores proporciona información sobre la importancia de identificar y comprender los factores comunes que influyen en los precios de los activos y el rendimiento de la cartera. Destaca la importancia del riesgo sistemático y beta en la determinación de los rendimientos esperados y proporciona una base para la gestión eficaz de inversiones basada en el análisis factorial.

En conclusión, mientras que la Hipótesis del Mercado Eficiente sentó las bases para comprender la eficiencia del mercado, la realidad es que los mercados no siempre son perfectamente eficientes. La aparición de modelos multifactoriales y los conocimientos de las finanzas conductuales han brindado una perspectiva más matizada sobre la fijación de precios de activos. Los inversores pueden aprovechar estos modelos y factores para mejorar su comprensión de la dinámica del mercado e identificar potencialmente oportunidades de rendimientos superiores. Sin embargo, es importante reconocer las limitaciones y desafíos asociados con estos modelos y tener cuidado en su aplicación.

 

Factores (FRM Parte 2 2023 – Libro 5 – Capítulo 2)



Factores (FRM Parte 2 2023 – Libro 5 – Capítulo 2)

De la Parte 2, Libro 5 de Gestión de Riesgos y Gestión de Inversiones, hay un capítulo sobre factores. Este libro analiza la gestión de inversiones y cómo se relaciona con la selección de cartera mediante factores. Para ilustrar este concepto, consideremos un ejemplo en el que está construyendo su cartera de inversión alternativa, centrándose específicamente en invertir en vino para su bodega.

Para identificar las mejores botellas de vino para incluir en su cartera, decide contratar a tres catadores de vino, incluido usted mismo. Como consumidor ocasional de vino que disfruta de una copa con la cena, sus recomendaciones de vino representan una perspectiva. Otro catador, conocido como tu amigo de la universidad, es conocido por engullir vino rápidamente sin mucha consideración. Finalmente, el tercer catador es un conocedor de vinos que analiza meticulosamente el aroma, el sabor y otros factores.

Al crear su cartera, tiene la opción de incluir todos los vinos probados por los tres individuos, formando la cartera de mercado. Sin embargo, sería más ventajoso si pudiera ponderar mucho las recomendaciones del conocedor de vinos, ya que poseen el factor de experiencia en la cata de vinos. Por ejemplo, puede asignar un peso de alrededor del 5 % a sus recomendaciones y del 94,9 % a las recomendaciones del conocedor de vinos. Por el contrario, las recomendaciones de su amigo de la universidad pueden tener menos peso o incluso ser ignoradas por completo.

Al identificar los factores relevantes, como la experiencia del conocedor, y ponderar las contribuciones en consecuencia, puede construir una cartera que supere a la cartera del mercado. Este proceso se alinea con los objetivos de la gestión de inversiones, que implican la identificación de factores que contribuyen a un rendimiento superior de la cartera.

Ahora, conectemos este ejemplo con los objetivos de aprendizaje descritos en el libro. Los objetivos de aprendizaje incluyen la comprensión del proceso de inversión de valor, el impacto de los factores de riesgo macroeconómicos en el rendimiento de los activos y las carteras, la reducción del riesgo de volatilidad y la exploración de modelos como el modelo Fama-French, el valor y el impulso.

La inversión en valor implica evaluar el valor intrínseco de las acciones realizando un análisis fundamental y comparándolo con su valor de mercado. Las acciones con precios significativamente más bajos que su valor intrínseco se consideran infravaloradas, mientras que las que tienen precios más altos están potencialmente sobrevaloradas. El valor intrínseco representa el verdadero valor de una acción, que puede diferir de su valor de mercado influenciado por los caprichos y locuras del mercado.

Para determinar el valor intrínseco, puede analizar varios factores, como balances, estados de flujo de efectivo, habilidades ejecutivas, dividendos futuros, flujos de efectivo libres o flujos de efectivo operativos. Al comparar el valor intrínseco con el valor de mercado, puede identificar acciones infravaloradas y tomar decisiones de inversión informadas. Sin embargo, es esencial tener en cuenta que el mercado puede eventualmente ajustar el precio para alinearlo con el valor intrínseco, suponiendo inversores racionales y mercados eficientes. En realidad, las emociones humanas y las ineficiencias del mercado pueden afectar los precios de las acciones.

En el contexto de los factores de riesgo macroeconómico, el crecimiento económico juega un papel crucial. Durante los períodos de crecimiento económico bajo o negativo, los activos de riesgo, como las acciones, generalmente tienen un rendimiento inferior, mientras que los activos más seguros, como los bonos del gobierno, tienden a tener un rendimiento superior. Los inversores con aversión al riesgo que no pueden soportar pérdidas significativas durante las recesiones económicas pueden preferir invertir en bonos. A los inversores más jóvenes, con un horizonte temporal más largo, a menudo se les anima a invertir en acciones, ya que pueden soportar pérdidas a corto plazo y beneficiarse de ganancias a largo plazo.

La evidencia empírica sugiere que las acciones de valor tienden a superar a las acciones de crecimiento con el tiempo. Los investigadores argumentan que existe una prima de valor, lo que indica una recompensa para los inversores que buscan acciones infravaloradas. Los factores económicos como la inflación, las tasas de interés, los cambios en el PIB y la volatilidad están asociados con las primas de riesgo. Al considerar estos factores, los inversores pueden ajustar sus carteras en consecuencia.

El libro de texto también proporciona tablas que muestran el rendimiento de varias clases de activos durante las recesiones económicas de EE. UU. Destaca que ciertas clases, como el oro y las materias primas, tienden a tener rendimientos promedio positivos durante estos períodos.

Las empresas y las personas se han visto afectadas por diversos factores que han afectado su productividad, rendimiento financiero y decisiones de inversión. Un evento importante que tuvo un impacto significativo fue el brote de COVID-19 a principios de 2020. A medida que se cerró la economía para controlar la propagación del virus, las empresas enfrentaron desafíos para generar ingresos y las personas experimentaron incertidumbres financieras.

Los efectos de la pandemia fueron evidentes en los precios de las acciones, que experimentaron una caída significativa durante los meses de febrero y marzo de 2020. La fuerte caída de los precios de las acciones fue una consecuencia directa del cierre económico y las incertidumbres que rodearon al virus. Esta caída de los precios de las acciones puso de relieve la vulnerabilidad de las empresas y las personas a las perturbaciones externas.

Sin embargo, en medio de los tiempos difíciles, hubo períodos de mejora de la productividad. Durante finales del verano y principios del otoño de 2020, hubo aumentos significativos en la productividad en los Estados Unidos y otras partes del mundo. Estas mejoras fueron el resultado de adaptarse a las nuevas circunstancias provocadas por la pandemia y encontrar formas innovadoras de operar. Aunque el impacto inicial en la productividad fue negativo, la resiliencia y adaptabilidad de las empresas y las personas condujo a mejoras posteriores.

Otro resultado inesperado de la pandemia fue la disminución de la tasa de natalidad esperada en los Estados Unidos durante 2020. Contrariamente a las suposiciones iniciales de que las personas que se quedaran en casa conducirían a un aumento de la natalidad, la tasa de natalidad en realidad disminuyó. Este cambio demográfico plantea riesgos macroeconómicos, ya que una parte importante de la población se acerca a la edad de jubilación. Los trabajadores que se jubilan no solo reducen la productividad general, sino que también exigen diferentes tipos de inversiones y carteras, lo que afecta el panorama financiero.

El riesgo político es otro factor que ha ido cambiando con el tiempo. Desde 1990, ha habido un aumento en las regulaciones y la intervención del gobierno en varios aspectos de los negocios y la sociedad. Este aumento en el riesgo político ha llevado a primas de riesgo más altas a medida que las empresas y las personas navegan por el entorno regulatorio cambiante. No se puede ignorar el impacto de las decisiones y políticas políticas en los mercados financieros y las decisiones de inversión.

Abordar el riesgo de volatilidad es una preocupación clave para los inversores y las empresas. Un enfoque es evitar invertir en valores riesgosos, como acciones, derivados o valores de renta fija, si la volatilidad no es tolerable. Alternativamente, los inversores pueden aumentar su porcentaje de inversión en bonos, que tienden a ser menos volátiles. Sin embargo, depender únicamente de los bonos puede no ser la solución óptima durante las contracciones económicas.

Para mitigar el riesgo de volatilidad mientras se mantiene la inversión en activos de riesgo, los inversores pueden considerar comprar opciones de protección, como las opciones de venta, que actúan como seguro contra posibles pérdidas. Sin embargo, la efectividad y rentabilidad de tales estrategias requieren un análisis cuidadoso. Encontrar el equilibrio adecuado entre los costos marginales y los beneficios marginales es crucial para optimizar los enfoques de gestión de riesgos.

En el contexto de la gestión de carteras, factores como el tamaño y el valor juegan un papel importante. Eugene Fama y Kenneth French desarrollaron el modelo Fama-French, que amplió el Modelo de fijación de precios de activos de capital (CAPM) al incorporar factores adicionales. El modelo incluye el factor de mercado, el factor de tamaño (SMB) y el factor de valor (HML) para capturar mejor las características de riesgo y rendimiento de las acciones. Se ha encontrado que estos factores explican una parte sustancial de los rendimientos de las acciones, lo que enfatiza la importancia de considerar múltiples factores en la construcción de la cartera.

La inversión en valor implica ir en largo en acciones con precios bajos en relación con el valor en libros y vender en corto acciones con precios altos. Esta estrategia se basa en la lógica de que las acciones de valor, que han atravesado períodos de bajo rendimiento, pueden ofrecer rendimientos más altos como compensación. Existen teorías racionales y de comportamiento para explicar la prima de valor. Las teorías racionales se centran en los factores de riesgo que afectan a las acciones de valor, mientras que las teorías conductuales consideran los sesgos de los inversores, como la extrapolación excesiva y la aversión a las pérdidas, como impulsores de la prima de valor.

La inversión de impulso, por otro lado, se basa en la creencia de que las acciones que han mostrado una reciente apreciación de precios seguirán teniendo un buen desempeño. Los inversores pueden volverse demasiado confiados en los ganadores y perder la confianza en los perdedores, lo que resulta en un efecto de impulso. La estrategia de inversión de impulso consiste en comprar acciones que han mostrado un impulso de precio positivo y vender acciones que han mostrado un impulso negativo.

Hay diferentes enfoques para implementar estrategias de impulso. Un método común es calcular los rendimientos de acciones individuales durante un período específico, como los últimos seis a doce meses, y clasificarlos según su rendimiento relativo. A continuación, se seleccionan para invertir las acciones mejor clasificadas con el impulso positivo más alto, mientras que las acciones con menor impulso negativo se evitan o se venden al descubierto.

La inversión de impulso puede explicarse tanto por factores racionales como de comportamiento. Desde el punto de vista racional, el efecto impulso puede atribuirse a las ineficiencias del mercado o a la falta de reacción ante la nueva información. Los inversores pueden tomar tiempo para incorporar completamente la nueva información en los precios de las acciones, lo que lleva a un impulso continuo de los precios a medida que más inversores se ponen al día con las noticias.

Las explicaciones del comportamiento sugieren que los sesgos de los inversores, como el comportamiento de manada y el efecto de disposición, contribuyen al efecto de impulso. El comportamiento de manada ocurre cuando los inversores siguen a la multitud y compran acciones que han tenido un buen desempeño, lo que lleva a mayores aumentos de precios. El efecto de disposición se refiere a la tendencia de los inversionistas a mantener las acciones perdedoras y vender las acciones ganadoras demasiado rápido, lo que puede generar un impulso en los precios.

Tanto las estrategias de inversión de valor como las de impulso han demostrado generar rendimientos superiores a largo plazo. Sin embargo, estas estrategias también tienen períodos de bajo rendimiento y su éxito puede variar según las condiciones del mercado y los factores específicos que impulsan los rendimientos de las acciones en un momento dado.

Al construir una cartera de inversiones, es importante considerar un enfoque diversificado que incorpore múltiples factores, incluidos el tamaño, el valor y el impulso. Al diversificar entre diferentes factores, los inversores pueden reducir potencialmente el impacto de las fluctuaciones de los factores individuales y mejorar el perfil de riesgo-rendimiento de sus carteras.

Además, es fundamental revisar y reequilibrar periódicamente la cartera para asegurarse de que se alinea con los objetivos del inversor, la tolerancia al riesgo y las condiciones cambiantes del mercado. El reequilibrio implica ajustar la asignación de activos de la cartera mediante la compra o venta de activos para devolverla a las ponderaciones objetivo deseadas. Esto ayuda a mantener la exposición al riesgo prevista y evita que la cartera se concentre demasiado en determinados valores o sectores.

En conclusión, la gestión del riesgo de volatilidad y la consideración de factores como el tamaño, el valor y el impulso son aspectos importantes de la gestión de carteras. Los inversores deben evaluar su tolerancia al riesgo, los objetivos de inversión y el horizonte temporal al implementar estas estrategias. Además, mantenerse informado sobre las tendencias del mercado, los indicadores económicos y los desarrollos geopolíticos puede ayudar a tomar decisiones de inversión informadas y navegar por el panorama financiero en constante cambio.

 

Alfa (y la anatomía de bajo riesgo) (FRM Parte 2 2023 - Libro 5 - Capítulo 3)


Alfa (y la anatomía de bajo riesgo) (FRM Parte 2 2023 - Libro 5 - Capítulo 3)

En este capítulo titulado "Alfa y la anomalía de bajo riesgo" profundizamos en un análisis exhaustivo de la medición del rendimiento y las estrategias de inversión. El capítulo tiene como objetivo profundizar nuestra comprensión del alfa, la selección de puntos de referencia, el error de seguimiento, el índice de información y el índice de Sharpe, al mismo tiempo que explora la presencia de la anomalía de bajo riesgo en los mercados financieros.

Introducción:

El capítulo comienza enfatizando la importancia de su título y la intención de explorar las complejidades que abarca. El autor destaca la importancia de un título de capítulo bien elaborado para transmitir un valor sustancial a los lectores.

Entendiendo Alfa:

Se discute el concepto de alfa como medida de desempeño, enfatizando su relación con un benchmark. La analogía de un golfista que se enfoca en el récord de Jack Nicklaus en lugar de comparar puntajes con un golfista promedio se usa para ilustrar alfa como una medida de rendimiento en relación con un punto de referencia. Alfa es reconocida como una métrica crucial para evaluar el rendimiento de las inversiones.

Exploración de anomalías:

El capítulo pasa a discutir las anomalías dentro del contexto de la hipótesis de los mercados eficientes. Las anomalías representan desviaciones de la hipótesis, lo que sugiere que los precios de mercado reflejan toda la información relevante. El enfoque aquí está en la anomalía de bajo riesgo, donde las inversiones con niveles de riesgo más bajos superan a los valores de alto riesgo en términos de rendimiento.

Objetivos de aprendizaje:

El capítulo describe varios objetivos de aprendizaje, mostrando la amplitud y profundidad del tema. Estos objetivos incluyen la evaluación de la anomalía de bajo riesgo, la definición y el cálculo de métricas de rendimiento como el alfa, el error de seguimiento, el índice de información y el índice de Sharpe. Se explora la importancia de la selección de puntos de referencia y su impacto en alfa. El capítulo también cubre la ley fundamental de la gestión activa, el análisis de la relación de información, el análisis de regresión y el papel de los factores en el rendimiento de la inversión. Se presentan ejemplos del mundo real, como el análisis de desempeño de Warren Buffett y la discusión sobre la no linealidad y otras anomalías.

Revelando la anomalía de bajo riesgo:

El capítulo nos retrotrae a 1964 cuando William Sharpe introdujo el modelo de fijación de precios de activos de capital (CAPM), estableciendo una relación lineal entre los rendimientos esperados de la cartera y la beta. Sin embargo, la evidencia empírica desafía esta relación, indicando que las acciones de beta alto tienden a tener un rendimiento inferior al de las acciones de beta bajo, incluso sobre una base ajustada al riesgo. Este fenómeno se conoce como la anomalía de bajo riesgo y desafía los supuestos de la hipótesis de los mercados eficientes.

Factores que influyen en la anomalía de bajo riesgo:

El capítulo explora varios factores que contribuyen a la persistencia de la anomalía de bajo riesgo. Identifica el apalancamiento como una práctica común en los mercados financieros y cómo las restricciones para acceder al apalancamiento pueden llevar a los inversionistas a buscar acciones de beta alta, elevando sus precios y reduciendo los rendimientos ajustados al riesgo. Los problemas de la agencia y las preferencias individuales por las acciones de beta alto también se destacan como factores que contribuyen a la anomalía de bajo riesgo.

Entendiendo Alfa:

El capítulo proporciona una definición concisa de alfa como el rendimiento promedio superior a un índice de mercado o punto de referencia. Se enfatiza la importancia de seleccionar un punto de referencia apropiado para determinar alfa. Se reconoce que alfa refleja tanto la habilidad de inversión como los factores utilizados para construir el índice de referencia, lo que subraya la importancia de la selección del índice de referencia para evaluar el rendimiento de la inversión.

Conclusión:

El capítulo concluye resumiendo los puntos de vista y los objetivos clave cubiertos. Destaca la compleja interacción entre alfa, la selección de referencia y la anomalía de bajo riesgo. También presenta importantes conceptos de medición del rendimiento, como el error de seguimiento, el índice de información y el índice de Sharpe, que brindan formas de evaluar los rendimientos ajustados al riesgo. Los ejemplos del mundo real y la discusión de la no linealidad y otras anomalías enriquecen aún más la comprensión del tema.

Al explorar estos conceptos y su interacción, el capítulo tiene como objetivo profundizar nuestra comprensión de alfa, selección de referencia, error de seguimiento, relación de información y relación de Sharpe. También presenta ejemplos del mundo real, como el análisis de rendimiento de Warren Buffett y la discusión sobre la no linealidad y otras anomalías.

Para estimar el índice de información, se deben calcular los rendimientos del activo y el índice de referencia durante un período de tiempo significativo, ya sean rendimientos diarios o mensuales. Estos datos se pueden procesar utilizando herramientas como hojas de cálculo de Excel, lo que permite el cálculo de alfa y error de seguimiento. El acceso a los datos necesarios es esencial para realizar este análisis de manera efectiva.

El capítulo presenta la ley fundamental de la gestión activa, desarrollada por Grinhold Grenald. Si bien la fórmula presentada representa una aproximación y puede no ser exacta, brinda información valiosa sobre la relación entre alfa, coeficiente de información y amplitud. La fórmula sugiere que los administradores de cartera generan alfa al hacer apuestas que se desvían de su punto de referencia, y las apuestas exitosas tienden a generar un alfa más alto. La proporción máxima de información es aproximadamente igual al producto del coeficiente de información y la raíz cuadrada del número de apuestas realizadas.

El coeficiente de información mide la precisión de las previsiones de un gestor en relación con los rendimientos reales, mientras que la amplitud se refiere al número de valores negociables y su frecuencia de negociación. La raíz cuadrada de la amplitud actúa como una penalización por el muestreo, equilibrando la precisión con las consideraciones de costo.

El capítulo enfatiza que la productividad de un gerente activo depende de su nivel de habilidad y la frecuencia con la que utiliza sus habilidades. La raíz cuadrada de la amplitud sugiere que los inversores deberían tomar decisiones informadas o participar en operaciones frecuentes para maximizar sus rendimientos.

Otro punto clave es que dos gerentes con el mismo nivel de habilidad pero diferentes niveles de amplitud probablemente arrojen resultados de desempeño diferentes. Una mayor amplitud generalmente conduce a un mejor rendimiento.

Se presenta una analogía con la ruleta para ilustrar este concepto. Comparando un jugador que apuesta un dólar por cien giros con otro jugador que apuesta cien dólares por un giro, la relación riesgo-recompensa es diferente. Esta analogía destaca la importancia de considerar tanto el nivel de habilidad como la frecuencia de negociación.

Se hacen suposiciones con respecto al coeficiente de información. Por ejemplo, un aumento en los activos bajo administración tiende a disminuir el coeficiente de información, lo que lleva a un deterioro del desempeño. A medida que un fondo crece, se vuelve más difícil identificar acciones infravaloradas, e incluso cuando se encuentran, su impacto en la cartera general disminuye.

La suposición de transacciones independientes no es del todo precisa, ya que a menudo existe una correlación entre las inversiones. Por ejemplo, si un gestor invierte en acciones de servicios públicos, es probable que invierta posteriormente en más acciones de servicios públicos. Este patrón de correlación es cierto en varios estudios.

Recordando discusiones previas, el capítulo hace referencia al Modelo de fijación de precios de activos de capital (CAPM) introducido por William Sharpe en 1964. El CAPM es un modelo de un factor basado en la cartera de mercado, donde el rendimiento esperado de un activo individual consiste en el capital libre de riesgo. tasa más un componente basado en el comportamiento del mercado.

Beta se reintroduce como una medida de sensibilidad al riesgo sistemático. Las acciones de beta baja exhiben una menor sensibilidad, mientras que las acciones de beta alta muestran una mayor sensibilidad.

El capítulo presenta datos desde enero de 1990 hasta mayo de 2012 para analizar la relación entre la gestión activa de cartera y el ratio de información. Los datos demuestran que a medida que aumenta el número de valores en cartera, el índice de información tiende a disminuir. Administrar una mayor cantidad de valores se vuelve más desafiante, lo que resulta en una menor precisión de pronóstico y generación de alfa.

También se examina el impacto de los costos de transacción en el índice de información. Los costos de transacción más altos reducen la proporción de información, lo que indica que los costos asociados con el comercio frecuente pueden consumir el alfa potencial generado por el administrador.

En conclusión, el capítulo enfatiza la importancia de considerar tanto el nivel de habilidad como la amplitud en la gestión activa de cartera. Los gerentes calificados que hacen pronósticos precisos pueden generar alfa, pero la amplitud de su cartera y los costos de transacción asociados juegan un papel crucial para determinar la efectividad general de su estrategia.

En general, este capítulo proporciona información sobre la medición e interpretación de alfa, la anomalía de bajo riesgo, y sus implicaciones para la gestión de riesgos y las estrategias de inversión. Alienta a los lectores a considerar cuidadosamente la selección de puntos de referencia, comprender el error de seguimiento y los índices de información, y evaluar el rendimiento ajustado al riesgo utilizando métricas como el índice de Sharpe. Al comprender estos conceptos y su interacción, los inversores pueden tomar decisiones más informadas al seleccionar y evaluar administradores de cartera activos.

 

Monitoreo de riesgos y medición del desempeño (FRM Parte 2 2023 - Libro 5 - Capítulo 7)



Monitoreo de riesgos y medición del desempeño (FRM Parte 2 2023 - Libro 5 - Capítulo 7)

Estamos pasando de los capítulos anteriores escritos por un académico a este capítulo, escrito por profesionales. En este capítulo, nos centraremos en el seguimiento del riesgo y la medición del rendimiento en el contexto de la gestión de inversiones. Si bien existe cierta superposición con los temas tratados en los capítulos anteriores, profundizaremos en áreas específicas como el valor en riesgo, la planificación del riesgo, la presupuestación del riesgo, la conciencia del riesgo, la estadística de duración de la liquidez, el análisis alfa y de referencia, y el papel del Jefe. Oficial de Riesgos.

Objetivos de aprendizaje:
Antes de sumergirnos en el capítulo, examinemos los objetivos de aprendizaje, que brindan una descripción general de lo que cubriremos. Estos objetivos incluyen:

  • Valor en Riesgo: Hemos discutido este concepto extensamente en el pasado. Se refiere a la pérdida potencial máxima con un cierto nivel de confianza durante un período de tiempo específico. Volveremos sobre este tema.
  • Planificación de riesgos, presupuestación de riesgos y seguimiento de riesgos: estas áreas guardan semejanza con debates anteriores sobre la gestión de riesgos. Exploraremos cómo se relacionan con el marco general de gestión de riesgos.
  • Conciencia del riesgo: este tema se abordó brevemente en capítulos anteriores cuando se discutió la cultura del riesgo y el papel del director de riesgos. Profundizaremos en ello en este capítulo.
  • Estadística de duración de liquidez: este es un tema nuevo que presentaremos. Se enfoca en medir el riesgo de liquidez asociado a diferentes inversiones.
  • Alpha y Benchmark: revisaremos estos conceptos y es posible que hagamos referencia al trabajo de William Sharpe. Esto proporcionará más información sobre la medición del rendimiento.

Resumen del capítulo:
Este capítulo es relativamente más corto en comparación con los recientes, por lo que probablemente llevará menos tiempo cubrirlo. Comencemos por revisar el valor en riesgo y el error de seguimiento. El valor en riesgo se refiere a la mayor pérdida potencial que una entidad podría enfrentar con cierto nivel de confianza durante un período de tiempo específico. Por otro lado, el error de seguimiento mide la desviación entre los rendimientos de una cartera individual y su índice de referencia. Ambos conceptos utilizan valores críticos de la tabla z y juegan un papel crucial en la asignación de capital y en la determinación de la libertad del administrador en torno al índice de referencia.

El valor en riesgo ayuda a los gerentes a asignar capital entre activos, considerando factores como el valor marginal en riesgo y el valor incremental en riesgo. En capítulos anteriores, analizamos las ponderaciones óptimas y las fórmulas que ayudan a determinar estas ponderaciones. Por el contrario, el error de seguimiento se utiliza para determinar la flexibilidad del gestor a la hora de desviarse del índice de referencia. Los gestores activos tienen como objetivo superar al índice de referencia mediante la selección de valores y la asignación de activos, que se pueden resumir mediante un análisis de atribución.

El proceso de gestión de riesgos abarca tres pilares clave: planificación de riesgos, presupuestación de riesgos y seguimiento de riesgos. La planificación de riesgos implica establecer niveles esperados de rendimiento y volatilidad, consultar con el director de riesgos y la junta directiva para definir niveles aceptables de valor en riesgo y error de seguimiento, y establecer un proceso para la asignación de capital. Además, la planificación de riesgos implica diferenciar entre eventos que desencadenan daños operativos regulares y aquellos que causan daños graves. La presupuestación de riesgos actúa como una capa de evaluación secundaria para cada silo o unidad de negocio, considerando el riesgo de sus actividades. Su objetivo es maximizar los rendimientos manteniendo al mínimo el riesgo total de la cartera, lo que da como resultado una asignación óptima de activos.

El monitoreo de riesgos es crucial para evaluar la efectividad de las prácticas de gestión de riesgos. Implica comparar las acciones planificadas con los resultados reales, de forma similar a la evaluación de resultados en un entorno educativo. Las desviaciones inusuales y las infracciones de los límites de riesgo deben identificarse con prontitud para garantizar medidas correctivas oportunas. Se pueden emplear diversas técnicas analíticas, como el análisis de tendencias y el análisis comparativo, para un control eficaz del riesgo.

Conclusión: este capítulo sobre el seguimiento de riesgos y la medición del rendimiento proporciona conocimientos prácticos sobre la gestión de riesgos de inversión. Cubre temas esenciales como el valor en riesgo, la planificación de riesgos, la presupuestación de riesgos, la conciencia del riesgo, las estadísticas de duración de la liquidez, el análisis alfa y de referencia, y la importancia de la supervisión de riesgos.

El monitoreo del riesgo es crucial para detectar cualquier variación del presupuesto de riesgo o los límites de riesgo predeterminados. Implica evaluar regularmente el desempeño de la cartera y compararlo con los resultados esperados. Esto permite a los administradores de riesgos identificar desviaciones inusuales o resultados inesperados que puedan requerir atención o ajustes.

El análisis de tendencias es un enfoque utilizado en el monitoreo de riesgos. Mediante el examen de datos históricos y la observación de patrones a lo largo del tiempo, los gestores de riesgos pueden identificar tendencias en el rendimiento de la cartera y medidas de riesgo. Esto ayuda a comprender el comportamiento de la cartera y evaluar su consistencia con el presupuesto de riesgo.

El análisis comparativo es otra herramienta valiosa en el seguimiento de riesgos. Se trata de comparar el rendimiento de la cartera con puntos de referencia o pares relevantes. Al evaluar el desempeño relativo de la cartera, los administradores de riesgos pueden obtener información sobre sus fortalezas y debilidades y evaluar si está cumpliendo sus objetivos.

El monitoreo del riesgo también incluye el seguimiento y la evaluación de indicadores clave de riesgo (KRI) y métricas de desempeño. Los KRI son medidas específicas que proporcionan señales de alerta temprana de riesgos potenciales o desviaciones del presupuesto de riesgos. Estos indicadores pueden incluir niveles de volatilidad, valor en riesgo (VaR), error de seguimiento, índices de liquidez y otras métricas relevantes. Al monitorear regularmente estos indicadores, los administradores de riesgos pueden identificar y abordar de manera proactiva los riesgos emergentes o las desviaciones.

Además, el seguimiento de riesgos implica la revisión y el análisis de informes de riesgos y paneles de control de riesgos. Estos informes brindan una descripción completa del perfil de riesgo, el rendimiento y el cumplimiento de los límites de riesgo de la cartera. Los paneles de riesgo, a menudo presentados visualmente, ofrecen una instantánea de las métricas de riesgo de la cartera y resaltan cualquier área de preocupación. La revisión periódica de estos informes y paneles ayuda a mantener la transparencia, la rendición de cuentas y la toma de decisiones informada con respecto a la gestión de riesgos.

En resumen, el monitoreo de riesgos juega un papel vital en el proceso de gestión de riesgos. Implica evaluar continuamente el rendimiento de la cartera, comparándolo con objetivos y puntos de referencia predeterminados, rastreando indicadores clave de riesgo y revisando informes y paneles de riesgo. Al monitorear diligentemente el riesgo, los profesionales pueden identificar y abordar rápidamente cualquier desviación o riesgo emergente, asegurando que la cartera permanezca alineada con el presupuesto y los objetivos de riesgo.

Razón de la queja: