Comercio Cuantitativo - página 32

 

Clase 15, parte 1: Modelos de Subasta (Microestructura de Mercados Financieros)



Clase 15, parte 1: Modelos de Subasta (Microestructura de Mercados Financieros)

Continuando con la lección anterior sobre manada y burbujas en los mercados financieros, la lección actual cambia el enfoque a los modelos de subasta en la microestructura del mercado financiero. El profesor destaca la relevancia de las subastas en varios contextos, incluidos los mercados financieros y la teoría de la producción. Si bien los modelos de subasta no son exclusivos de los mercados financieros, su universalidad y aplicabilidad hacen que sean ampliamente utilizados y estudiados.

La conferencia comienza brindando una descripción general de las tres formas principales en que se puede organizar el comercio: mercados de comerciantes, modelos de subasta continua con límite o libros electrónicos y modelos de subasta por lotes. Sin embargo, el énfasis principal está en los modelos de subasta y sus características.

El profesor presenta los modelos de subasta discutiendo su propósito de capturar la dinámica de la competencia imperfecta entre comerciantes o postores cuando el número de agentes en el mercado es finito. Los modelos de subasta son fundamentales para estudiar una variedad de preguntas, incluida la eficiencia del mercado, la asignación del mercado, los volúmenes de negociación y las respuestas de los precios.

Se presentan varios formatos de subasta, incluidas ofertas cerradas y abiertas, subastas de primer y segundo precio, así como variaciones en los tipos de subasta, como evaluaciones privadas o comunes, subastas de una o varias unidades, y subastas de una o dos caras. La conferencia destaca la importancia de estas variaciones en la comprensión de diferentes aspectos de la dinámica del mercado y las estrategias comerciales.

Luego, la conferencia profundiza en modelos de subasta específicos, comenzando con la subasta de primer precio de valor privado, que sirve como un modelo fundamental y directo. En esta subasta, hay un artículo a la venta, múltiples compradores potenciales con valoraciones privadas y postores racionales neutrales al riesgo. La subasta continúa con cada postor presentando una oferta, y el mejor postor gana y paga su oferta, mientras que los otros postores no pagan nada. La conferencia explora cómo las estrategias de oferta de los postores y las ganancias esperadas se ven influenciadas por su deseo de ganar la subasta y maximizar su ganancia esperada.

A continuación, el disertante explica el proceso de optimización de maximizar la ganancia en una subasta tomando la primera derivada con respecto a la variable de oferta. Demuestran cómo se puede derivar la estrategia de licitación considerando la función inversa de la función de licitación y transformando la distribución de probabilidad de las valoraciones de los postores. La conferencia enfatiza la importancia de encontrar la oferta de equilibrio que se alinee con la estrategia de oferta.

Además, el disertante explora la derivada de la valoración con respecto a la oferta, enfatizando la condición de equilibrio y la oferta óptima que se alinea con la estrategia de oferta. Discuten el papel de la asimetría de la información y el impacto que tiene en el sombreado de las ofertas en comparación con las valoraciones.

Para ilustrar los conceptos, la lección proporciona un ejemplo simple usando una distribución y demuestra cómo se puede emplear para determinar la estrategia de equilibrio. El ejemplo destaca la influencia del número de postores en el grado de sombreado de las ofertas y la rentabilidad resultante de los comerciantes.

El disertante también aborda otros formatos de subasta, incluida la subasta inglesa y la subasta holandesa, discutiendo su equivalencia con la subasta de primer precio en contextos específicos. La conferencia presenta brevemente el concepto de subastas de valor común y explora las diferencias entre las subastas de una sola unidad y las de unidades múltiples, destacando el concepto de ser la "oferta más alta de la cueva" en las subastas de unidades múltiples.

Hacia el final de la conferencia, el orador menciona que existen extensiones y variaciones de los modelos de subasta, pero el enfoque general para resolver los problemas relacionados con las subastas sigue siendo el mismo. La conferencia concluye con una invitación para preguntas y aclaraciones con respecto a la subasta de primer precio de valor privado discutida anteriormente.

La conferencia proporciona una introducción completa a los modelos de subasta en la microestructura del mercado financiero, explorando varios formatos de subasta, estrategias de oferta, condiciones de equilibrio y sus implicaciones para la dinámica del mercado y los resultados comerciales.

  • 00:00:00 El profesor analiza los modelos de subasta en la microestructura de los mercados financieros. La conferencia de la semana anterior cubrió modelos de manada y burbujas en los mercados financieros, con énfasis en la información pública que domina las señales privadas y el potencial de que estallen las burbujas debido a la corrección endógena del mercado. Ahora, la atención se centra en las tres formas principales en que se puede organizar el comercio: mercados de distribuidores, modelos de subasta continua con límite o libros electrónicos y modelos de subasta por lotes. El profesor ofrece una visión general de estos modelos y sus características.

  • 00:05:00 El disertante analiza los formatos de subasta de llamadas y cómo se utilizan en algunos mercados, como el mercado eléctrico, para compensar el mercado. El disertante presenta los modelos de subasta y explica que, si bien los modelos de subasta no son específicos de los mercados financieros, son ampliamente utilizados debido a su universalidad. El ponente continúa mencionando algunos de los modelos más relevantes, como el subastador y las opciones de anuncios contextuales. El disertante también destaca las dos aplicaciones principales de la teoría de subastas: opciones de anuncios contextuales y subastas de espectro.

  • 00:10:00 El profesor analiza cómo las subastas son relevantes en los mercados financieros y la teoría de la producción. El punto principal de los modelos de subasta es capturar la competencia imperfecta entre comerciantes o postores en presencia de un número finito de agentes en el mercado. Los modelos se pueden aplicar para estudiar preguntas como la eficiencia del mercado, la asignación del mercado, los volúmenes de negociación y las respuestas de los precios. El profesor enumera varios formatos de subasta, como ofertas cerradas y abiertas, subastas de primer y segundo precio, así como diferentes tipos de subastas, incluidas evaluaciones privadas o comunes, subastas de una unidad o de varias unidades, y subastas de una o dos caras.

  • 00:15:00 Aprendemos sobre los modelos de subasta y cómo se pueden combinar de varias maneras debido a las muchas variaciones disponibles. La conferencia comienza con el modelo más simple, una subasta de primer precio de valor privado, donde hay un artículo a la venta, n compradores potenciales, y cada uno tiene una valoración privada. La subasta es tal que todos presentan una oferta, y se sortea la oferta más alta para determinar el ganador que paga su oferta, mientras que los otros postores no pagan nada. Los postores son racionales, lo que significa que maximizan su beneficio esperado y son neutrales al riesgo. La conferencia explora cómo la presentación de ofertas más altas equilibra el deseo del agente de ganar con su beneficio esperado, lo que en última instancia conduce a estrategias de oferta óptimas y equilibrio simétrico.

  • 00:20:00 El ponente analiza los modelos de subasta en la microestructura del mercado financiero y cómo los agentes pueden encontrar la oferta óptima. Suponen que todos los demás agentes usan algunos efectos beta de estrategia, y la estrategia de oferta es estrictamente creciente en X, lo que significa que hay una oferta máxima que uno puede esperar de su oponente. El orador descarta algunas ofertas posibles, incluidas las ofertas estrictamente por encima de la beta de la barra X, que están estrictamente dominadas por ser exactamente beta de la barra X, y el agente cuya valoración privada es cero ofertaría cero y perdería o ganaría y obtendría los activos inútiles. a precio cero porque no estarían dispuestos a pagar nada por el pasaje. Luego exploran la probabilidad de ganar utilizando la teoría de la probabilidad y reescriben la ganancia esperada dada alguna b2b y la valoración X.

  • 00:25:00 El ponente explica cómo maximizar el beneficio en una subasta utilizando la primera derivada con respecto a la variable B. Tomando la función inversa de beta en ambos lados de una desigualdad y transformando la distribución de probabilidad de la valoración de un postor, se encuentra la forma mecánica de derivar esta función. Sin embargo, para una comprensión más sencilla e intuitiva, se afirma que al ofertar Bi, el postor gana si la valoración más alta del competidor cae por debajo de la valoración del mejor postor utilizando la estrategia beta, y una vez escrita la función de beneficio en este forma, es posible maximizarlo tomando la primera derivada con respecto a B.

  • 00:30:00 El ponente discute cómo encontrar la derivada de la valoración con respecto a la oferta según la función de oferta beta. Explican que la condición de equilibrio requiere que la oferta óptima sea la misma que la estrategia de oferta, y esta estrategia depende de la distribución de valores privados. La estrategia de equilibrio es, en última instancia, igual a la expectativa de y1 dado que y1 es menor que X, donde ofertar mucho más o menos que esta oferta óptima conduce a un pago en exceso o a perder frente a un competidor más agresivo.

  • 00:35:00 El disertante da un ejemplo simple de una distribución y cómo se puede usar para encontrar la estrategia de equilibrio. El ejemplo utiliza la suposición de un pequeño número de postores que no son perfectamente competitivos, por lo que obtienen beneficios positivos. El grado de sombreado en las ofertas depende de la cantidad de jugadores, y los números más grandes conducen a menos sombreado. La conclusión principal de la primera opción de precio es que las ofertas están sombreadas en comparación con la valoración porque los comerciantes quieren obtener algún beneficio, y el grado de sombreado depende de la cantidad de postores.

  • 00:40:00 El disertante explica modelos de subastas y subastas de valor privado. Analiza el papel de la información asimétrica en el mercado y cómo afecta las estrategias comerciales. El modelo utilizado no implica una selección adversa ya que la información asimétrica solo se refiere a la valoración del activo de cada jugador. El disertante también enfatiza que el proceso para cualquier modelo de subasta es similar y universal, pero los detalles pueden diferir. La subasta de valor privado de primer precio no es un modelo perfecto, ya que implica ofertas selladas, lo que no siempre es el caso en los mercados del mundo real. Otros formatos de subasta incluyen la subasta inglesa, que se muestra como un desempate exactamente equivalente a la subasta del primer precio.

  • 00:45:00 El disertante discute diferentes modelos de subastas y cómo se comparan en términos de eficiencia. La subasta de primer precio, la subasta inglesa y la subasta holandesa conducen a que el postor privado con la valoración más alta obtenga el artículo, lo que las hace eficientes. Luego, el disertante considera si el valor privado es el escenario adecuado para las subastas e introduce el modelo de valor común. La conferencia también analiza las subastas de una sola unidad y de unidades múltiples, donde las subastas de unidades múltiples son casi equivalentes a las subastas de una sola unidad con ganancias lineales en cantidad. Finalmente, la conferencia analiza el concepto de ser la oferta más alta de la cueva en las subastas de unidades múltiples, lo que significa ofertar lo suficiente para ganar, pero sin pagar de más.

  • 00:50:00 El orador presenta varias extensiones a los modelos de subasta y explica que el enfoque general para resolver el problema es el mismo. Luego, la conferencia se centra en la subasta de primer precio de valor común y las opciones de segundo precio, antes de tocar brevemente las opciones dobles. El orador se toma un descanso e invita a hacer preguntas sobre la primera opción de valor privado de precio discutida hasta ahora.
 

Clase 15, parte 2: Modelos de Subasta (Microestructura de Mercados Financieros)



Clase 15, parte 2: Modelos de Subasta (Microestructura de Mercados Financieros)

Continuando con la conferencia, el enfoque cambia hacia las subastas de primer precio de valor común. En este tipo de subasta se vende un único artículo con un valor fundamental igual para todos los pujadores. Sin embargo, cada postor recibe una señal privada que proporciona una estimación ruidosa del valor real. Según sus señales, los postores hacen ofertas y el postor con la oferta más alta gana el artículo. Sin embargo, el concepto de la "maldición del ganador" surge cuando el mejor postor se da cuenta de que probablemente sobreestimó el valor del artículo, ya que su oferta se basa en la señal privada más alta.

La conferencia procede a explicar cómo abordar la maldición del ganador en las subastas de primer precio de valor común utilizando un enfoque similar al de las subastas de primer precio de valor privado. El video enfatiza que las distribuciones de y1, denotadas como G, todavía están presentes pero ahora están condicionadas a la señal privada recibida por cada postor. Introduce un método complicado de imitar el caso de valor privado, donde el jugador I elige a quién imitar en lugar de seleccionar B_di. Al enmarcar el problema en términos de la elección de Z, las ganancias esperadas de ofertar como el tipo Z se convierten en la expectativa sobre todos los valores posibles de y que son más bajos que Z. La lección demuestra tomar la condición de primer orden para maximizar las ganancias con respecto a z

El disertante discute el tipo óptimo para imitar en una subasta e introduce la condición de primer orden que da el tipo óptimo después de incorporar la condición de equilibrio. Se enfatiza que es crucial hacer una oferta lo suficientemente alta como para ganar el activo pero lo suficientemente baja como para limitar la cantidad pagada. Además, se presenta una ecuación diferencial y su expresión resultante, que representa la expectativa de la devaluación de la señal de la persona integrada sobre la medida L recién construida, aunque no se proporciona una mayor elaboración.

El concepto de la maldición del ganador se explora más en las subastas, destacando que la valoración del activo, condicionada a las ofertas de los comerciantes que no ganaron la subasta y tenían señales por debajo del ganador, es incluso más baja que la valoración basada únicamente en el ganador. señal privada. Esto se debe a que el ganador tiene en cuenta el valor esperado de las valoraciones de otros comerciantes, que son significativamente más bajas que la valoración del ganador. Luego, la conferencia profundiza en las subastas de segundo precio, señalando que la expresión de la ganancia esperada sigue siendo similar a la de las subastas privadas y de valor común, excepto por el hecho de que el ganador paga la segunda oferta más alta. Se demuestra que pujar por tu propia valoración es una estrategia débilmente dominante en las subastas de segundo precio, lo que las convierte en una opción óptima.

El orador examina el impacto de pujar por encima de la valoración real de uno en una subasta de segundo precio con valores privados. Al considerar diferentes escenarios basados en la ubicación de la oferta perdedora más alta en relación con la valoración del postor, muestran que ofertar estrictamente por encima de la valoración propia es estrictamente peor si existe una probabilidad positiva de que alguien haga una oferta dentro de ese intervalo. Del mismo modo, ofertar por debajo de la valoración propia también es subóptimo, ya que puede llevar a perder la subasta y perder la ganancia esperada positiva. En última instancia, la estrategia de ofertar la propia valoración es débilmente dominante en una subasta de segundo precio de valor privado, y este resultado puede extenderse a otros supuestos siempre que sea aplicable el marco de la subasta de segundo precio.

Luego se discute el concepto de equilibrio simétrico en los modelos de subasta, particularmente en las subastas de segundo precio de valor común. Se hace una comparación con las subastas de segundo precio de valor privado, explicando por qué es óptimo ofertar exactamente a la valoración de uno en este último. En las subastas de segundo precio de valor común, la estrategia óptima es ganar contra una oferta si la valoración del activo es superior a la oferta y perder si es inferior. La estrategia de subasta de equilibrio se determina asumiendo que todos los oponentes subastan sus propias señales. Si un postor quiere ganar, puja más alto que la señal más alta que conoce, pero solo si su propia señal es mayor que ella.

A continuación, el profesor explica la estrategia de equilibrio para las subastas de primer precio de valor común. Afirma que los agentes deben ofertar por debajo de la cantidad que valoran el activo basándose únicamente en sus señales privadas por dos razones. En primer lugar, quieren asegurar un beneficio positivo y, en segundo lugar, existe la maldición del ganador, lo que significa que ganar la subasta es desfavorable con respecto al valor del activo. Luego, el disertante pasa a discutir las opciones dobles y su funcionamiento en los mercados financieros. El escenario asume solo dos agentes, un vendedor y un comprador, compitiendo entre sí pero no con otros vendedores o compradores.

Se explora el establecimiento de una subasta de oferta sellada para un comprador y un vendedor con valoraciones privadas de un activo. Si la oferta del comprador supera la oferta del vendedor, el comercio se realiza al precio TV. Los beneficios esperados son los mismos para el comprador y el vendedor que en el ejemplo de la subasta al primer precio, con la única diferencia del signo. La subasta del vendedor es idéntica a una opción de segundo precio de valores privados, mientras que la configuración del comprador se parece a la subasta de primer precio de valores privados. La estrategia óptima del comprador se puede derivar de la misma manera que en la subasta de primer precio.

Luego, la conferencia profundiza en las subastas dobles y las representa en términos de opciones unilaterales. Sin embargo, se observa que el resultado de una subasta doble puede ser ineficiente, a diferencia de las opciones unilaterales donde el resultado es eficiente. Se discute el teorema de Meyerson Satterthwaite, que establece que no existe un protocolo comercial que logre un resultado eficiente en una situación con un comprador y muchos vendedores con valoraciones privadas independientes. Finalmente, el disertante brinda algunos puntos clave de la conferencia sobre modelos de subasta. Enfatizan que la selección adversa y la maldición del ganador son esencialmente lo mismo, siendo el último un concepto más limitado. Las subastas de segundo precio se destacan como un formato simple, robusto y eficiente, ampliamente utilizado en las subastas de anuncios de motores de búsqueda. Sin embargo, lograr la eficiencia en entornos comerciales bilaterales con información asimétrica presenta desafíos. La conferencia concluye mencionando que la conferencia final de la próxima semana proporcionará una revisión de los temas del curso y una discusión sobre el próximo examen, que puede incluir preguntas adicionales.

Continuando con la conferencia, el profesor concluye la discusión sobre los modelos de subasta destacando la relación entre la selección adversa y la maldición del ganador. Explican que la maldición del ganador es una manifestación específica de la selección adversa en las subastas. La selección adversa se refiere a la situación en la que una parte tiene más información que la otra, lo que genera posibles ineficiencias en la transacción. En el caso de la maldición del ganador, el postor con la señal privada más alta tiende a sobrestimar el valor del artículo, lo que resulta en un resultado subóptimo.

La conferencia enfatiza que las subastas de segundo precio se consideran un formato favorable debido a su simplicidad, robustez y eficiencia. El ponente menciona que este tipo de subastas se utilizan comúnmente en varios contextos, particularmente en las subastas de publicidad en buscadores. En una subasta de segundo precio, se incentiva a los postores a ofrecer sus verdaderas valoraciones, ya que es una estrategia débilmente dominante. Esto fomenta la licitación veraz y conduce a una asignación eficiente de recursos.

Sin embargo, el conferencista reconoce que lograr la eficiencia en entornos comerciales bilaterales, donde hay información asimétrica, presenta desafíos. Si bien las subastas de segundo precio ofrecen propiedades deseables, puede ser difícil extender estos principios a escenarios más complejos con múltiples compradores y vendedores. La conferencia destaca el teorema de Meyerson Satterthwaite, que establece la imposibilidad de encontrar un protocolo de negociación que garantice un resultado eficiente en un mercado con un comprador y múltiples vendedores, cada uno con valoraciones privadas independientes. Este teorema subraya las limitaciones inherentes para lograr la eficiencia en ciertos entornos de subasta.

El profesor resume los puntos clave de la conferencia sobre modelos de subasta. Reiteran la relevancia de las subastas de primer precio de valor común en los mercados financieros, así como la importancia del poder de mercado de sombreado de golpes resultante de un número limitado de compradores y el fenómeno de la maldición del ganador. La conferencia concluye mencionando que la próxima conferencia final brindará una revisión integral de los temas del curso y ofrecerá orientación para el examen, lo que podría incluir preguntas adicionales para reforzar la comprensión.

  • 00:00:00 La conferencia trata sobre las subastas de primer precio de valor común. Este tipo de subasta involucra un artículo en venta con un valor fundamental que es común para todos los postores. Cada postor recibe una señal privada informativa, que es una estimación ruidosa del valor real. Los postores hacen ofertas basadas en sus señales y el postor con la oferta más alta gana el artículo. Sin embargo, la "maldición del ganador" entra en juego cuando el mejor postor se da cuenta de que probablemente sobreestimó el valor del artículo, ya que su oferta se basa en la señal privada más alta. La conferencia explica cómo resolver este problema utilizando un enfoque similar al de la subasta de primer precio de valor privado.

  • 00:05:00 El video analiza cómo la información privada puede informar la distribución de otras señales en los modelos de subasta. Las distribuciones de y1 todavía se denotan como G, pero ahora están condicionadas a la señal privada recibida por el postor. El video también presenta una forma complicada de imitar el caso de valor privado, donde el jugador I elige a quién imitar en lugar de elegir a B_di. Al plantear el problema en términos de la elección de Z, las ganancias esperadas de ofertar como el tipo Z se convierten en la expectativa sobre todos los valores posibles de y que son menores que Z. El video también demuestra cómo tomar la condición de primer orden para maximizar las ganancias con respecto a a Z.

  • 00:10:00 El disertante discute el tipo óptimo para imitar en una subasta y menciona la condición de primer orden que da el tipo óptimo después de introducir la condición de equilibrio. Explica que aún es esencial hacer una oferta lo suficientemente alta como para que el activo gane, pero lo suficientemente baja como para limitar la cantidad pagada. El disertante también presenta una ecuación diferencial y su expresión resultante que es la expectativa de una devaluación de la señal de la persona, integrándola sobre la medida L recién construida pero no profundiza en ella.

  • 00:15:00 Se discute el concepto de la maldición del ganador en las subastas. La maldición del ganador surge debido a que la valoración del activo, condicionada a las pujas de los traders que no ganaron la subasta y tenían señales por debajo del ganador, es incluso inferior a la valoración basada únicamente en la señal privada del ganador. Esto se debe a que el ganador toma el valor esperado de las valoraciones de otros comerciantes, que están muy por debajo de la valoración del ganador. En segundo lugar, la conferencia ahonda en las subastas de segundo precio, donde la expresión del beneficio esperado sigue siendo prácticamente la misma que en las subastas privadas y de valor común, excepto por el hecho de que el ganador paga la segunda oferta más alta. Se muestra que es una estrategia débilmente dominante ofertar su propia valoración en subastas de segundo precio, lo que las convierte en una opción óptima.

  • 00:20:00 El orador analiza cómo pujar por encima de la valoración real de uno puede afectar la ganancia de uno en una subasta de segundo precio con valores privados. Al considerar diferentes escenarios basados en la ubicación de la oferta perdedora más alta en relación con la valoración del postor, muestran que ofertar estrictamente por encima de la valoración propia es estrictamente peor si existe una probabilidad positiva de que alguien haga una oferta dentro de ese intervalo. Del mismo modo, ofertar por debajo de la valoración propia también es subóptimo, ya que puede llevar a perder la subasta y perder la ganancia esperada positiva. En última instancia, la estrategia de superar la propia valoración es débilmente dominante en una subasta de segundo precio de valor privado, y este resultado puede extenderse a otros supuestos siempre que sea aplicable el marco de la subasta de segundo precio.

  • 00:25:00 El ponente explora el concepto de equilibrio simétrico en los modelos de subasta, específicamente en las subastas de segundo precio de valor común. Lo comparan con las subastas de segundo precio de valor privado y explican por qué es óptimo ofertar exactamente a su valoración en este último. En las subastas de segundo precio de valor común, la estrategia óptima es ganar contra una oferta si la valoración del activo es superior a la oferta y perder si es inferior. La estrategia de subasta de equilibrio se determina asumiendo que todos los oponentes subastan su propia señal. Si un postor quiere ganar, puja más alto que la señal más alta que conoce, pero solo si su propia señal es mayor que ella.

  • 00:30:00 El profesor explica la estrategia de equilibrio para las subastas de primer precio de valor común. Él dice que los agentes deberían ofertar por debajo de la cantidad en la que valoran el activo en función de sus señales privadas solo por dos razones. En primer lugar, quieren obtener un beneficio positivo y, en segundo lugar, existe la maldición del ganador, lo que significa que ganar la subasta es una mala noticia con respecto al valor del activo. Luego, el profesor pasa a discutir las opciones dobles y cómo funcionan en los mercados financieros. Supone que solo hay dos agentes, un vendedor y un comprador, que compiten entre sí, pero no con otros vendedores o compradores.

  • 00:35:00 Se discute la configuración de una subasta de oferta sellada para un comprador y un vendedor con valoraciones privadas de un activo. Si la oferta del comprador es más alta que la oferta del vendedor, el comercio se realiza al precio TV. Los beneficios esperados son los mismos para el comprador y el vendedor que en el ejemplo de la subasta al primer precio, con la única diferencia del signo. La subasta del vendedor es exactamente igual que una opción de segundo precio de valores privados, mientras que la configuración del comprador es similar a la subasta de primer precio de valores privados. La estrategia óptima del comprador se puede derivar de la misma manera que la subasta de primer precio.

  • 00:40:00 El disertante analiza las subastas dobles y cómo se pueden representar en términos de opciones unilaterales. Sin embargo, señala que el resultado de una subasta doble puede ser ineficiente, a diferencia de las opciones unilaterales donde el resultado es eficiente. Se discute el teorema de Meyerson Satterthwaite, que establece que no existe un protocolo de entrenamiento que utilice un resultado eficiente en una situación con un comprador y muchos vendedores con valoraciones privadas independientes. Por último, el disertante brinda algunas conclusiones de la conferencia sobre modelos de subasta, afirmando que la subasta de primer precio de valor común es la más relevante para los mercados financieros y que el poder de mercado de sombreado de golpes surge de un número limitado de compradores y la maldición del ganador.

  • 00:45:00 El disertante concluye la discusión sobre los modelos de subasta destacando que la selección adversa y la maldición del ganador son esencialmente lo mismo, siendo esta última más estrecha. También menciona que las subastas de segundo precio son un formato simple, robusto y eficiente, que se utiliza en las opciones de anuncios de los motores de búsqueda. Sin embargo, lograr la eficiencia en entornos comerciales bilaterales donde hay información asimétrica es un desafío. La conferencia final de la próxima semana proporcionará una revisión de los temas del curso y una discusión sobre el examen, que podría incluir más preguntas.
 

Two Sigma presenta: modelos de aprendizaje automático de datos financieros


Two Sigma presenta: modelos de aprendizaje automático de datos financieros

Justin Ceriano de Two Sigma Securities ofrece una presentación completa sobre la integración de modelos de aprendizaje automático en el campo de las finanzas. Comienza destacando el creciente interés de las empresas financieras por aprovechar el aprendizaje automático para mejorar sus capacidades predictivas y sus procesos de toma de decisiones. Específicamente, los algoritmos de aprendizaje automático se pueden utilizar para predecir los precios futuros de los instrumentos financieros y determinar las estrategias comerciales óptimas.

Ceriano introduce el concepto de aprendizaje por refuerzo, que cae dentro de una clase de métodos capaces de aprender políticas de decisión directamente de los datos disponibles para maximizar una función objetivo apropiada. El aprendizaje por refuerzo resulta particularmente valioso en finanzas, donde el objetivo es optimizar los resultados en función de los datos históricos.

Uno de los aspectos fundamentales tratados es la aplicación de modelos de aprendizaje automático para analizar libros de órdenes límite en mercados electrónicos. En este sistema, los compradores y vendedores envían órdenes especificando los precios a los que están dispuestos a comprar o vender un activo en particular. Estas órdenes luego se igualan en función del mejor precio de oferta o demanda disponible. Ceriano enfatiza que los datos del libro de pedidos, que representan la oferta y la demanda visibles de una acción, forman una secuencia de alta dimensión que se puede utilizar de manera efectiva para predecir futuros cambios de precios utilizando modelos de aprendizaje automático.

Además, Ceriano enfatiza la importancia de considerar diferenciales distintos de cero en las estrategias comerciales. Estos diferenciales pueden afectar la rentabilidad de las predicciones de precios, lo que requiere una evaluación y un ajuste cuidadosos.

Para demostrar la implementación práctica de los modelos de aprendizaje automático, Ceriano explica la construcción de una red neuronal recurrente diseñada para predecir cambios de precios utilizando datos financieros de alta frecuencia. El modelo está entrenado para pronosticar si el próximo cambio de precio será positivo o negativo, y su desempeño se compara con un modelo recurrente lineal. El conjunto de datos empleado consta de tres años de datos de alta frecuencia evento por evento para aproximadamente 1000 acciones. El objetivo es evaluar si los modelos de aprendizaje automático no lineales, como las redes recurrentes, superan a los modelos estadísticos lineales en la captura de relaciones no lineales dentro de los datos. La optimización de las predicciones de los modelos se logra mediante el algoritmo backpropagation, minimizando el error de predicción. Para reducir los costos computacionales, se utiliza el algoritmo de retropropagación a través del tiempo truncado.

En la presentación se abordan los desafíos relacionados con la optimización de redes recurrentes, en particular el conocido problema del gradiente de fuga. El problema del gradiente que se desvanece se refiere al problema de que los gradientes se vuelven extremadamente pequeños a medida que se propagan a través de las capas inferiores de la red. En consecuencia, esto puede dificultar la velocidad de entrenamiento y dificultar que la red retenga información de partes distantes de la secuencia. Ceriano presenta la red Long Short-Term Memory (LSTM), uno de los tipos más populares de redes recurrentes, que se ha diseñado específicamente para abordar este problema al actualizar de manera eficiente el estado de la memoria, lo que permite que el modelo retenga información relevante desde lejos. el pasado.

La presentación procede a discutir el entrenamiento y la evaluación de modelos de aprendizaje automático utilizando datos de libros de pedidos de alta frecuencia. Los autores comparan la precisión de un modelo lineal con la de una red recurrente LSTM, y los resultados indican claramente el rendimiento superior del modelo de aprendizaje profundo cuando se prueba en aproximadamente 500 acciones durante un período de tres meses fuera de la muestra. La discusión también profundiza en la naturaleza universal de la relación entre los datos del libro de pedidos y los movimientos de precios, lo que sugiere la existencia de un modelo de formación de precios universal aplicable a múltiples acciones. Este hallazgo tiene implicaciones prácticas significativas, como la reducción de los costos computacionales y la capacidad de mejorar un modelo para una acción utilizando datos de otra.

El experimento tiene como objetivo entrenar un modelo universal agrupando datos de numerosas acciones y evaluando su precisión en comparación con modelos específicos de acciones. Los resultados demuestran consistentemente la superioridad del modelo universal, lo que indica una universalidad compartida en la dinámica de la cartera de pedidos en diferentes acciones. Esto no solo reduce el sobreajuste sino que también mejora la precisión del modelo. Además, el modelo universal exhibe estabilidad durante más de un año y escalabilidad con la ayuda de computación de alto rendimiento, utilizando 25 GPU con descenso de gradiente estocástico asíncrono.

La presentación también explora la aplicación del aprendizaje por refuerzo para optimizar las estrategias de envío de órdenes para una ejecución óptima. La atención se centra en el desarrollo de políticas para órdenes de mercado u órdenes limitadas de una acción, con el objetivo de maximizar las recompensas esperadas y el ahorro de costos dentro de intervalos de tiempo discretos. Al utilizar los datos históricos del libro de pedidos, el modelo de aprendizaje por refuerzo se entrena para simular los precios ejecutados para pedidos pequeños. El modelo determina si enviar una orden de mercado inmediatamente o esperar a que disminuya el mejor precio de venta, utilizando los datos del libro de órdenes límite como entrada. El rendimiento del modelo se evalúa utilizando un año de datos y luego se prueba en un conjunto de datos separado de seis meses.

Se presentan los resultados de la simulación en un universo de 100 acciones, considerando horizontes de tiempo de 10 y 60 segundos tanto para una estrategia de aprendizaje de refuerzo de solo orden de mercado como para una estrategia de orden de límite simple. Los resultados indican consistentemente ahorros de costos positivos logrados por el modelo de aprendizaje por refuerzo en las 50 acciones, aunque con cierta variabilidad. Además, los ahorros de costos tienden a aumentar con horizontes de tiempo más largos. La presentación introduce el concepto de utilizar datos históricos del libro de órdenes para simular si una orden límite enviada se ejecutará dentro de un intervalo de tiempo específico. El modelo de aprendizaje por refuerzo está entrenado para seleccionar dinámicamente el momento óptimo para maximizar los ahorros de costos esperados. Si bien los ahorros de costos varían entre las diferentes acciones, la estrategia de aprendizaje por refuerzo produce resultados positivos de manera constante, y algunas acciones exhiben ahorros de costos significativamente mayores que otras.

La presentación concluye abordando la necesidad de desarrollar métodos de optimización avanzados y arquitecturas de aprendizaje profundo diseñadas específicamente para datos financieros. Enfatiza los desafíos actuales en la fusión del aprendizaje por refuerzo con simulaciones precisas para tamaños de pedidos más grandes para mejorar aún más la aplicación del aprendizaje automático en las finanzas. Para comprender de manera efectiva los conceptos discutidos, Ceriano recomienda adquirir experiencia práctica mediante la implementación de técnicas de aprendizaje automático en conjuntos de datos a gran escala. Destaca la importancia de comprender la teoría matemática subyacente y dominar las bibliotecas de aprendizaje profundo como TensorFlow y PyTorch. Además, se enfatizan las habilidades informáticas de alto rendimiento para paralelizar el entrenamiento de modelos.

Además, los presentadores discuten las políticas de contratación de Two Sigma y las oportunidades de trabajo remoto. Si bien no existe una política de trabajo remoto a tiempo completo, Two Sigma contrata a personas de varios países del mundo y opera un equipo en línea llamado Alpha Studio para el trabajo remoto. Destacan la importancia de adquirir conocimientos en finanzas cuantitativas, probabilidad y estadística a través de múltiples cursos para aquellos interesados en seguir el aprendizaje automático en finanzas. La presentación también menciona la utilización de bibliotecas de aprendizaje profundo como TensorFlow y PyTorch en la base de código de Two Sigma.

Se analiza el proceso de contratación en Two Sigma, con énfasis en la contratación durante todo el año, particularmente durante el verano. Se hacen excepciones para las contrataciones de otoño y primavera, y la compañía alienta a las personas interesadas a comenzar lo antes posible, incluso si eso significa comenzar en diciembre. Los presentadores sugieren que los proyectos impresionantes involucran la identificación de patrones y tendencias en datos reales y la aplicación de enfoques de aprendizaje automático para resolver problemas del mundo real. La propiedad del proyecto y destacar las contribuciones de uno dentro del proyecto se enfatizan como cualidades valiosas buscadas por los reclutadores. También se menciona brevemente el equipo de investigación fundamental de acciones de Two Sigma, que colabora estrechamente con ingenieros y científicos de datos.

Se aclara la distinción entre un científico de datos y un investigador cuantitativo en Two Sigma. Si bien ambas posiciones involucran el modelado y el comercio, la ciencia de datos se enfoca principalmente en el aspecto de la ciencia de datos y la ingeniería de funciones, mientras que los investigadores cuantitativos consideran el proceso comercial completo de principio a fin. Los presentadores abordan la cultura de la oficina y las reuniones en Two Sigma, describiendo las reuniones como principalmente informales y ofreciendo pizarras para discusiones colaborativas. Ocasionalmente se requieren presentaciones preparadas para reuniones específicas.

Finalmente, se destacan los beneficios de emplear un modelo universal frente a modelos específicos de valores. La capacidad del modelo universal para aprovechar la transferencia de aprendizaje y mitigar los problemas de sobreadaptación se enfatiza como una ventaja clave. La presentación concluye mencionando que la sesión grabada estará disponible en el canal de YouTube de Two Sigma y destacando las prácticas globales de contratación de la empresa, con la mayoría de las contrataciones en los Estados Unidos.

  • 00:00:00 Justin Ceriano de Two Sigma Securities presenta el concepto de modelos de aprendizaje automático en finanzas. Explica cómo las empresas financieras están interesadas en utilizar el aprendizaje automático para hacer predicciones y tomar decisiones, como predecir el precio futuro de un instrumento financiero y determinar una estrategia comercial óptima. Ceriano señala que el aprendizaje por refuerzo es una clase de métodos que pueden aprender políticas de decisión directamente de los datos con el objetivo de maximizar una función objetivo adecuada. Concluye discutiendo los desafíos de sobreadaptar con datos insuficientes, los beneficios de los modelos de aprendizaje profundo y la importancia de la computación de alto rendimiento para entrenar modelos grandes en conjuntos de datos financieros de alta frecuencia.

  • 00:05:00 Se introduce el concepto de libros de órdenes limitadas en los mercados electrónicos, donde los compradores y vendedores envían órdenes a los precios que están dispuestos a comprar o vender, y se igualan de acuerdo con el mejor precio de oferta o demanda. La oferta y la demanda visibles de una acción se representan a través de los datos del libro de pedidos y es una secuencia de alta dimensión que se utiliza para predecir futuros cambios de precios utilizando modelos de aprendizaje automático. También es importante tener en cuenta los diferenciales distintos de cero en las estrategias comerciales, lo que puede hacer que las predicciones de precios sean menos rentables.

  • 00:10:00 Se implementa una red neuronal recurrente para predecir cambios de precios en datos financieros de alta frecuencia. El modelo predecirá si el próximo cambio de precio es positivo o negativo, y los resultados se compararán con un modelo recurrente lineal. El conjunto de datos consta de tres años de datos de alta frecuencia evento por evento para aproximadamente 1,000 acciones. El rendimiento del modelo de aprendizaje profundo se evaluará para determinar si los modelos de aprendizaje automático no lineal, como las redes recurrentes, pueden superar a los modelos estadísticos lineales en el aprendizaje de relaciones no lineales en los datos. El algoritmo de retropropagación se utilizará para optimizar sobre la función objetivo para minimizar el error de las predicciones. La retropropagación truncada a través del algoritmo de tiempo se utiliza para reducir los costos computacionales.

  • 00:15:00 El video analiza cómo optimizar las redes recurrentes, que es similar en espíritu a la optimización de una red de avance de múltiples capas. Sin embargo, el problema del gradiente que desaparece es un desafío bien conocido, donde la magnitud del gradiente es pequeña con respecto a las capas inferiores de la red. Esto puede hacer que el entrenamiento sea lento, lo que dificulta el entrenamiento de las redes para recordar datos del pasado lejano y conduce a un descenso de gradiente estocástico para converger lentamente. La transcripción también presenta la red LSTM como uno de los tipos más populares de redes recurrentes, que está diseñada para actualizar el estado de la memoria de manera eficiente con el objetivo de ayudar al modelo a recordar datos del pasado lejano en la secuencia.

  • 00:20:00 Los autores describen cómo entrenaron una serie de modelos de aprendizaje automático en datos de libros de pedidos de alta frecuencia y evaluaron su rendimiento en un conjunto de datos de prueba. Los autores compararon la precisión del modelo lineal con la red recurrente LSTM y descubrieron que el modelo de aprendizaje profundo claramente supera al modelo lineal en un conjunto de datos de prueba de aproximadamente 500 acciones durante un período de prueba de tres meses fuera de la muestra. Examinan la cuestión de si la relación entre los datos del libro de pedidos y los movimientos de precios es universal en todas las acciones o si las acciones individuales necesitan su propio modelo y encuentran pruebas sólidas de un modelo de formación de precios universal que asigna el flujo de pedidos a los cambios de precios. También discuten las implicaciones prácticas de este hallazgo, incluidos los costos computacionales más bajos y la capacidad de mejorar el modelo para una acción utilizando datos de otra.

  • 00:25:00 El experimento tiene como objetivo entrenar un modelo universal reuniendo datos de cientos de acciones y comparando su precisión con la de modelos específicos de acciones. El resultado muestra que el modelo universal supera sistemáticamente a los modelos específicos de valores, lo que indica una universalidad compartida en la dinámica de la cartera de pedidos de diferentes valores. Esto permite la reducción del sobreajuste y la mejora de la precisión del modelo. Además, el modelo universal puede generalizarse a nuevos valores, demostrando la estabilidad del modelo durante más de un año y la escalabilidad del modelo con la ayuda de la informática de alto rendimiento que utiliza 25 GPU con descenso de gradiente estocástico asíncrono. El segundo ejemplo presentado en esta sección es la ejecución óptima en la que se utiliza el aprendizaje por refuerzo para desarrollar estrategias de envío de órdenes. Sin embargo, la política óptima para un proceso de decisión markov es desafiante debido a la probabilidad de transición desconocida.

  • 00:30:00 El video analiza cómo se puede usar el aprendizaje por refuerzo para aprender políticas óptimas para un ejemplo simple de ejecución de órdenes. El modelo de aprendizaje por refuerzo está entrenado para simular con precisión el precio ejecutado para una orden pequeña utilizando datos históricos del libro de órdenes. La atención se centra en la ejecución óptima de una orden de mercado o una orden limitada de una acción, con el objetivo de maximizar la recompensa esperada y el ahorro de costos para cada momento discreto hasta el horizonte temporal. El modelo de aprendizaje de refuerzo selecciona si enviar la orden de mercado o esperar a que disminuya el mejor precio de venta, siendo la entrada los datos del libro de órdenes límite y el modelo se evalúa en un año de datos y luego se prueba en seis meses de datos.

  • 00:35:00 El video presenta los resultados de la simulación en todo el universo de 100 acciones con horizontes de tiempo de 10 y 60 segundos para la estrategia de aprendizaje de refuerzo de solo orden de mercado y la estrategia de orden de límite simple. Los resultados muestran que el modelo de aprendizaje por refuerzo proporciona de manera consistente un ahorro de costos positivo, aunque con una variabilidad significativa, en las 50 acciones. El ahorro de costos aumenta en general dado un horizonte de tiempo más largo. El video también presenta el uso de los datos históricos del libro de órdenes para simular si la orden límite enviada para una acción se ejecutará o no en el intervalo de tiempo y entrena el modelo de aprendizaje de refuerzo para seleccionar de forma adaptativa el tiempo para maximizar los ahorros de costos esperados. Los resultados muestran que la estrategia de aprendizaje por refuerzo proporciona de manera consistente un ahorro de costos positivo, aunque el ahorro de costos varía para algunas acciones, mientras que es relativamente grande para otras.

  • 00:40:00 El video destaca la necesidad de desarrollar mejores métodos de optimización y arquitecturas de aprendizaje profundo diseñadas específicamente para datos financieros. Hay desafíos abiertos que aún deben abordarse, como fusionar el aprendizaje de refuerzo con simulaciones precisas para tamaños de pedidos más grandes para aplicar el aprendizaje automático a los datos financieros. Justin recomienda que la mejor manera de aprender el aprendizaje automático es implementarlo de primera mano en conjuntos de datos a gran escala y comprender la teoría matemática detrás de él. Es imprescindible tener experiencia en librerías de deep learning como PiTorch o TensorFlow y computación de alto rendimiento para paralelizar el entrenamiento de modelos para aplicar machine learning a datos financieros. Finalmente, la grabación de la sesión estará disponible en su canal de YouTube, y Two Sigma contrata a nivel mundial con la mayoría de sus empleados en los EE. UU.

  • 00:45:00 Representantes de Two Sigma hablan sobre sus políticas de contratación y trabajo remoto. Si bien no tienen una política de trabajo remoto a tiempo completo, contratan personas de diferentes países del mundo y tienen un equipo en línea llamado Alpha Studio para trabajo remoto. También analizan la importancia de tomar múltiples cursos en finanzas cuantitativas, probabilidad y estadística para aquellos interesados en el aprendizaje automático en este campo. Finalmente, los presentadores revelan que su código presenta las bibliotecas de aprendizaje profundo TensorFlow y PyTorch.

  • 00:50:00 Los disertantes discuten el proceso de contratación en Two Sigma y las diferentes épocas del año en que contratan, enfocándose en el verano pero también haciendo excepciones para el otoño y la primavera. También mencionan que contratan de forma continua y alientan a las personas a comenzar lo antes posible, incluso si eso significa comenzar en diciembre. En términos de proyectos que serían interesantes para los reclutadores, sugieren encontrar patrones y tendencias en datos reales y aplicar enfoques de aprendizaje automático a problemas del mundo real, con un enfoque en la propiedad del proyecto y destacando lo que el individuo poseía en el proyecto en el que trabajaba. en. Los oradores también mencionan el equipo de investigación de capital fundamental de Two Sigma, que trabaja en estrecha colaboración con los ingenieros, científicos de datos y otras áreas del negocio de la empresa. Finalmente, abordan una pregunta sobre el uso del aprendizaje por refuerzo para optimizar las ejecuciones comerciales automatizadas.

  • 00:55:00 El orador analiza la diferencia entre un científico de datos y un investigador cuantitativo en Two Sigma. Si bien ambas posiciones involucran el modelado y el comercio, la ciencia de datos se enfoca en el aspecto de la ciencia de datos y la ingeniería de funciones, mientras que la investigación cuantitativa considera la imagen completa del comercio de principio a fin. El orador también responde una pregunta sobre la cultura de la oficina y las reuniones en Two Sigma y explica que, si bien hay reuniones ocasionales que requieren presentaciones preparadas, las reuniones suelen ser más informales con pizarras disponibles para los debates. Por último, el orador analiza las ventajas de un modelo universal frente a un modelo específico de stock, citando el aprendizaje de transferencia y el potencial de problemas de sobreajuste como razones por las que un solo modelo universal entrenado en un conjunto de datos combinado puede superar a los modelos especializados.
 

Two Sigma presenta aprendizaje profundo para secuencias en finanzas cuantitativas David Kriegman


Two Sigma presenta aprendizaje profundo para secuencias en finanzas cuantitativas David Kriegman

Durante la presentación, el orador introduce el evento y brinda información general sobre Two Sigma, una reconocida empresa de ciencias financieras que aplica métodos científicos al campo de las finanzas. Destacan que Two Sigma opera en múltiples negocios dentro del sector financiero, incluidos los fondos de cobertura cuantitativos, los servicios de corredores de bolsa, las inversiones privadas, los seguros y las soluciones para inversores. El orador enfatiza la diversidad de antecedentes entre la audiencia, lo que indica que la conferencia atenderá a personas en todos los niveles de experiencia, mostrando cómo el aprendizaje profundo se puede aplicar de manera efectiva en las finanzas cuantitativas. En particular, mencionan que Two Sigma emplea a aproximadamente 1600 profesionales en todo el mundo, de los cuales 600 tienen títulos avanzados y más de 200 poseen doctorados.

Continuando, el orador presenta el concepto de aprendizaje profundo para secuencias e ilustra su impacto en varias aplicaciones durante la última década. Proporcionan ejemplos como la clasificación de sentimientos, el reconocimiento de actividad de video y la traducción automática. El orador explica que las tareas de procesamiento de secuencias implican tomar secuencias como entrada y generar secuencias como salida, que pueden variar en longitud. Específicamente, discuten la aplicación del aprendizaje profundo en la predicción de valores bursátiles utilizando secuencias históricas. El orador subraya la importancia de predecir tanto los puntos altos como los bajos para maximizar la rentabilidad.

A continuación, el disertante profundiza en la tubería de inversión cuantitativa típica en finanzas, que abarca una secuencia de procesos involucrados en la toma de decisiones de inversión. Describen las dos etapas clave de la canalización: modelado alfa y extracción de características. El modelado alfa implica predecir la dirección de los precios de las acciones utilizando modelos de reversión a la media o modelos de impulso. La extracción de características se centra en extraer características técnicas del mercado, como el precio, el volumen y el diferencial de oferta y demanda. El disertante enfatiza que estos procesos eventualmente conducen a decisiones de compra o venta en los mercados, con el fin último de generar ganancias y minimizar pérdidas. Destacan la importancia de evitar la toma de decisiones emocionales y destacan la importancia de diversificar las carteras en el ámbito de las finanzas.

Posteriormente, David Kriegman de Two Sigma sube al escenario para discutir los factores que juegan un papel crucial en la toma de decisiones informadas en el comercio de acciones. El primer factor destacado es la recopilación de datos fundamentales, que pueden obtenerse a través de informes directos de las empresas o inferirse de la información disponible públicamente. Además, el análisis de sentimientos se puede realizar interpretando datos no estructurados derivados de fuentes como noticias, redes sociales y comentarios de analistas. El orador introduce la idea de utilizar fuentes no tradicionales, como la cantidad de automóviles en un estacionamiento o la congestión de los buques portacontenedores en un puerto, para recopilar información que pueda indicar el desempeño de una acción específica. Después de emplear el modelo alfa para hacer predicciones sobre el rendimiento de las acciones, el siguiente paso en el proceso consiste en la optimización de la cartera. Este paso a menudo implica resolver problemas de optimización a gran escala y considerar factores como las existencias actuales, la confianza en los pronósticos, los requisitos de diversificación y los costos comerciales asociados. Finalmente, la fase de ejecución implica tomar decisiones sobre el tamaño, la colocación y el tipo de orden, con la ayuda de un modelo para comprender el impacto potencial de estas acciones.

Volviendo al tema del aprendizaje profundo, el orador destaca la naturaleza secuencial de la tubería de toma de decisiones financieras cuantitativas. Luego cambian el enfoque al aprendizaje profundo, describiéndolo como un tipo de red neuronal caracterizada por múltiples capas. El orador analiza los desarrollos significativos en las redes neuronales desde su introducción inicial en la década de 1950, incluido el surgimiento de nuevas arquitecturas de red, la disponibilidad de conjuntos de datos de entrenamiento masivos y los avances en computación paralela. Para ilustrar la idea básica detrás de un solo perceptrón, el orador explica cómo toma entradas, calcula una suma ponderada y pasa el resultado a través de una función no lineal. Mencionan que la función de activación tradicional, un umbral, ha sido reemplazada por una alternativa llamada unidad lineal rectificada (ReLU), que genera cero para valores por debajo de un umbral y el valor real para valores más altos.

Continuando con el tema de las redes neuronales, el ponente introduce el concepto de perceptrón multicapa. En esta arquitectura, cada círculo representa un perceptrón con su propia función de activación y conjunto de pesos. Esto se puede representar mediante un par de matrices de peso, lo que permite la creación de redes más grandes. El orador continúa discutiendo la aplicación de las redes neuronales para el modelado alfa, específicamente en la predicción de precios de acciones en función del rendimiento histórico. La red se entrena utilizando un conjunto de datos de entrenamiento que incluye características y datos de precios, con el objetivo de optimización de minimizar la pérdida total. Este proceso de entrenamiento implica varias técnicas, como la retropropagación y el descenso de gradiente estocástico.

Para mejorar aún más el modelo alfa, el orador explica la importancia de incorporar múltiples funciones en lugar de depender de una sola señal, como el precio o el historial. Al combinar todas las características relevantes, se puede crear un modelo más potente y preciso. Sin embargo, utilizar una red completamente conectada con este enfoque puede conducir a un problema conocido como la maldición de la dimensionalidad, ya que la cantidad de pesos se vuelve extremadamente grande y no todos pueden entrenarse de manera efectiva. Para superar este desafío, el orador presenta otra clase de redes de procesamiento de secuencias llamadas redes neuronales recurrentes (RNN). Estas redes introducen un aspecto de memoria y retroalimentan la información, construyendo un estado con cada instante de tiempo. Como resultado, se mitiga el problema de tener un número excesivo de pesos. En RNN, los pesos se comparten entre cada elemento, lo que hace que la red sea profunda y proporciona una solución manejable.

El orador destaca las dificultades de entrenar redes profundas y cómo las redes cerradas, como las unidades recurrentes cerradas (GRU) y las redes de memoria a corto plazo (LSTM), abordan estos desafíos. Las redes cerradas incorporan puertas analógicas que controlan el flujo de información y permiten la actualización de estados anteriores con nuevos estados potenciales. Los componentes de estas redes son diferenciables, lo que les permite entrenarse mediante retropropagación. En comparación con los LSTM, las GRU tienen capacidades de memoria más largas.

Al analizar varias arquitecturas utilizadas en el aprendizaje profundo para secuencias, el orador presenta las redes LSTM y GRU, así como los desarrollos más recientes, como las redes neuronales convolucionales (CNN), los mecanismos de atención y los transformadores. También abordan el aprendizaje por refuerzo, que optimiza los procesos de toma de decisiones secuenciales, como los que intervienen en las interacciones comerciales y de mercado. Si bien el aprendizaje por refuerzo ha tenido éxito en los juegos, aplicarlo a las finanzas requiere simuladores adecuados, una infraestructura de software robusta y recursos computacionales significativos. En general, el orador enfatiza que las diferentes arquitecturas y modelos discutidos representan herramientas poderosas para las finanzas cuantitativas, cada una con sus propias ventajas y desafíos.

Volviendo a la contribución de David Kriegman, arroja luz sobre la canalización empleada en las finanzas cuantitativas y cómo se pueden entrenar las redes neuronales profundas para implementar diferentes partes de la misma. Destaca las extensas operaciones de Two Sigma, que involucran el comercio de miles de acciones y la toma de cientos de millones de decisiones todos los días. El manejo de cantidades tan grandes de datos requiere un poder computacional sustancial, una infraestructura de software robusta y un equipo de personas creativas. Al abordar las preocupaciones sobre la falta de explicabilidad e interpretabilidad asociadas con las redes neuronales profundas y su impacto en el desarrollo de estrategias, Kriegman explica que ciertas arquitecturas pueden introducir representaciones interpretables. También enfatiza que en escenarios comerciales que cambian rápidamente, se requieren diferentes distribuciones. Además, Two Sigma incorpora comerciantes humanos que monitorean e implementan sistemas durante eventos extremos del mercado.

El orador analiza cómo los enfoques de aprendizaje profundo pueden interactuar con la hipótesis de un mercado eficiente en finanzas cuantitativas. Si bien el mercado generalmente se considera eficiente, el aprendizaje profundo puede facilitar una respuesta más rápida a la información y ofrecer métodos alternativos para asimilar datos, identificando potencialmente ineficiencias y oportunidades de inversión. También destacan la relevancia de las técnicas de visión por computadora en el modelado secuencial dentro de las finanzas, particularmente durante las etapas iniciales de extracción de características de datos no estructurados. Two Sigma busca activamente personas para roles de ingeniería y modelado, y aunque los diferentes roles se alinean con diferentes equipos, la aplicación del aprendizaje profundo impregna toda la organización. Se alienta a los recién graduados universitarios y a los solicitantes de maestría a postularse a través del sitio web de Two Sigma.

Durante la sesión de preguntas y respuestas, el orador aborda varios desafíos asociados con la aplicación del aprendizaje profundo a las finanzas cuantitativas. Un desafío importante es la falta de estacionariedad en las series temporales financieras, ya que los modelos de aprendizaje profundo funcionan mejor cuando el futuro se parece al pasado. Para abordar este problema, el ponente enfatiza la importancia de simular y predecir para introducir métodos de transferencia de dominio, permitiendo que los modelos se adapten a las condiciones cambiantes del mercado. Además, el orador señala que la tasa de error en las finanzas cuantitativas es generalmente más alta en comparación con otros campos, e incluso ser ligeramente superior al 50 % puede proporcionar una ventaja significativa en el comercio.

Cuando se le preguntó acerca de las implicaciones prometedoras para las finanzas cuantitativas, el orador menciona que casi todas las áreas de investigación en aprendizaje profundo y redes neuronales tienen implicaciones prometedoras. Destacan específicamente el aprendizaje por refuerzo y la transferencia de dominios como áreas de interés. Además, reconocen los desafíos del almacenamiento de datos en las finanzas y sugieren que las técnicas de compresión de datos pueden ser útiles para abordar estos problemas.

Ampliando el tema del equipo de ingeniería responsable de implementar modelos de aprendizaje profundo en finanzas cuantitativas, el orador explica que el equipo trabaja en varias tareas, incluida la administración de almacenamiento, los sistemas físicos y las capas construidas sobre esos sistemas. Destacan que tanto los modelos de aprendizaje profundo como los modelos estadísticos tienen sus roles según el caso de uso específico. Sin embargo, señalan que si un modelo profundo se reduce a una forma degenerada de regresión lineal, pierde su interés y poder intrínsecos.

La presentación enfatiza la aplicación del aprendizaje profundo en las finanzas cuantitativas, particularmente en el contexto del procesamiento de secuencias y las canalizaciones de toma de decisiones. Destaca los desafíos y oportunidades que surgen al utilizar redes neuronales profundas en este dominio, incluida la necesidad de interpretabilidad, abordar la no estacionariedad y aprovechar diversas arquitecturas. A lo largo de la presentación, Two Sigma se presenta como una empresa destacada que incorpora activamente técnicas de aprendizaje profundo en sus operaciones y busca activamente personas talentosas para unirse a su equipo.

  • 00:00:00 El orador presenta el evento y brinda algunos antecedentes sobre Two Sigma, una empresa de ciencias financieras que aplica métodos científicos a las finanzas. Explican que la compañía opera en varios negocios en el sector financiero, incluidos fondos de cobertura cuantitativos, corredor de bolsa, inversión privada, seguros y soluciones para inversores. También hablan sobre la diversidad de antecedentes entre la audiencia y enfatizan que su conferencia proporcionará algunas ideas en todos los niveles sobre cómo se puede aplicar el aprendizaje profundo en las finanzas cuantitativas. Finalmente, mencionan que 1600 personas trabajan en Two Sigma en todo el mundo, 600 con títulos avanzados y más de 200 con doctorados.

  • 00:05:00 El orador presenta el concepto de aprendizaje profundo para secuencias y cómo ha impactado en varias aplicaciones durante la última década, como la clasificación de sentimientos, el reconocimiento de actividad de video y la traducción automática. Explica que las tareas de procesamiento de secuencias toman secuencias como entrada y producen secuencias como salida, que pueden tener la misma longitud o diferentes. El orador también habla sobre la predicción de valores bursátiles utilizando secuencias pasadas y destaca la importancia de predecir tanto los puntos altos como los bajos para ganar más dinero.

  • 00:10:00 El disertante explica la tubería de inversión cuantitativa típica en finanzas, que involucra una secuencia de procesos para tomar decisiones de inversión. Esto incluye el modelado alfa, que predice la dirección de los precios de las acciones a través de modelos de reversión a la media o modelos de impulso, y la extracción de características, que involucra características técnicas como el precio, el volumen y el diferencial entre oferta y demanda. El oleoducto finalmente conduce a decisiones de compra o venta en los mercados, con el objetivo de no perder dinero y obtener ganancias. El ponente destaca la importancia de evitar la toma de decisiones emocionales y diversificar las carteras en finanzas.

  • 00:15:00 David Kriegman de Two Sigma presenta los diversos factores a considerar al tomar decisiones en el comercio de acciones. El primero es recopilar datos fundamentales, que pueden ser informados directamente por la empresa o inferidos en función de la información disponible públicamente. Además, el análisis de sentimientos se puede realizar interpretando datos no estructurados de fuentes como noticias, redes sociales y comentarios de analistas. Las fuentes no tradicionales, como la cantidad de automóviles en un estacionamiento o los buques portacontenedores respaldados en un puerto, también pueden proporcionar información sobre el rendimiento de una acción en particular. Después de usar el modelo alfa para hacer predicciones sobre el rendimiento de las acciones, el siguiente paso es optimizar la cartera. Esto a menudo se maneja a través de problemas de optimización a gran escala y requiere determinar cuánto stock ya se tiene, confianza en los pronósticos, qué tan diversificadas deben ser las inversiones y los costos asociados con la realización de los intercambios. Finalmente, la ejecución es el último paso en el que se toman decisiones sobre el tamaño, la ubicación y el tipo de la orden, y se utiliza un modelo para comprender el impacto de las acciones realizadas.

  • 00:20:00 El orador presenta el proceso de toma de decisiones de compra y venta en finanzas cuantitativas, incluida la extracción de características, el modelado alfa y la ejecución, y enfatiza la naturaleza secuencial del proceso. Luego, el enfoque cambia al aprendizaje profundo, que es un tipo de red neuronal caracterizada por una gran cantidad de capas. El orador explica los cambios clave que ocurrieron desde la primera introducción de las redes neuronales en la década de 1950, como nuevas arquitecturas de red, cantidades masivas de datos de entrenamiento y computación paralela masiva. Luego, el orador ilustra la idea básica de un solo perceptrón, que toma entradas y calcula una suma ponderada antes de pasar el resultado a través de una función no lineal. La función de activación tradicional era un umbral, pero ha sido reemplazada por una alternativa llamada unidad lineal rectificada (ReLU), que genera cero para valores inferiores a un umbral y el valor real en caso contrario.

  • 00:25:00 El orador presenta el concepto de un perceptrón multicapa, en el que cada círculo representa un perceptrón con su propia función de activación y conjunto de pesos. Esto se puede representar mediante un par de matrices de peso, lo que permite la creación de redes más grandes. A continuación, el orador analiza el uso de una red neuronal para el modelado alfa para predecir el precio de una acción, en función de su rendimiento anterior. La red se entrena utilizando un conjunto de datos de entrenamiento que incluye características y datos de precios, con el objetivo de optimización de minimizar la pérdida total. Esto se logra a través de una colección de técnicas de entrenamiento, como la retropropagación y el descenso de gradiente estocástico.

  • 00:30:00 El orador analiza cómo construir un modelo alfa utilizando múltiples funciones en lugar de una sola señal, como el precio o el historial. Al tomar todas las características relevantes y combinarlas, se podría crear un modelo más poderoso. Sin embargo, el uso de una red totalmente conectada con este enfoque crea un problema, ya que la cantidad de pesos puede ser muy grande y no todos pueden entrenarse. Para resolver este problema, el ponente presenta otra clase de redes de procesamiento de secuencias, conocidas como redes neuronales recurrentes. Estas redes introducen un aspecto de memoria y alimentan la información hacia atrás, construyendo un estado con cada instante de tiempo y, en consecuencia, mitigando el problema de tener demasiados pesos. Los pesos en estas redes se comparten entre cada elemento, lo que hace que esta red sea profunda y proporcione una solución manejable.

  • 00:35:00 El orador analiza las dificultades de entrenar redes profundas y cómo las redes cerradas, como GRU y LSTM, pueden abordar estos problemas al permitir que la información se propague más atrás en el tiempo. Las redes cerradas usan puertas analógicas para controlar la cantidad de información que fluye y actualizan el estado anterior con un nuevo estado potencial. Los componentes de las redes cerradas son diferenciables y, por lo tanto, se pueden entrenar mediante retropropagación. Las GRU tienen una memoria más larga en comparación con las LSTM, que significa memoria a corto plazo.

  • 00:40:00 El orador analiza varias arquitecturas utilizadas en el aprendizaje profundo para secuencias, incluidas las redes LSTM y GRU, así como los desarrollos más recientes, como las redes neuronales convolucionales, los mecanismos de atención y los transformadores. También introducen el aprendizaje por refuerzo, que optimiza los procesos de toma de decisiones secuenciales, como los que intervienen en el comercio y la interacción con el mercado. Si bien el aprendizaje por refuerzo ha tenido éxito en los juegos, aplicarlo a las finanzas requiere un buen simulador, una infraestructura de software y mucha computación. En general, las diferentes arquitecturas y modelos discutidos representan herramientas poderosas para las finanzas cuantitativas, cada una con sus propias ventajas y desafíos.

  • 00:45:00 David Kriegman analiza la canalización utilizada en las finanzas cuantitativas y cómo se pueden entrenar las redes neuronales profundas para implementar partes de ella. Menciona que Two Sigma opera a gran escala, comerciando con miles de acciones y tomando cientos de millones de decisiones por día. Para manejar esta cantidad de datos, necesitan mucha computación, una buena infraestructura de software y personas creativas. Cuando se le preguntó acerca de la falta de explicabilidad e interpretabilidad asociadas con las redes profundas y cómo afecta el desarrollo de la estrategia, Kriegman explica que algunas arquitecturas pueden introducir representaciones interpretables y que hay algunas decisiones comerciales que ocurren rápidamente y requieren diferentes distribuciones. Además, Two Sigma tiene comerciantes humanos que monitorean e implementan sistemas en eventos extremos del mercado.

  • 00:50:00 El orador discutió cómo los enfoques de aprendizaje profundo pueden interactuar con la hipótesis de un mercado eficiente en finanzas cuantitativas. Si bien el mercado es generalmente eficiente, el aprendizaje profundo puede ayudar a responder más rápidamente a la información y asimilarla de una manera diferente, identificando potencialmente ineficiencias y oportunidades de inversión. También hay aspectos de la visión por computadora que pueden ser relevantes para el modelado secuencial en finanzas, particularmente en las primeras etapas de extracción de características de información no estructurada. Two Sigma contrata activamente para roles de ingeniería y modelado, y aunque los diferentes roles se asignan a diferentes equipos, existe una aplicación definida de aprendizaje profundo en toda la organización. Se alienta a los recién graduados universitarios y a los solicitantes de nivel de maestría a postularse a través del sitio web de Two Sigma.

  • 00:55:00 El orador aborda preguntas sobre los desafíos de aplicar el aprendizaje profundo a las finanzas cuantitativas. Específicamente, la falta de estacionariedad en las series temporales financieras plantea un problema para el aprendizaje profundo, que funciona mejor cuando el futuro se parece mucho al pasado. Para abordar esto, la medida en que uno puede simular, predecir e introducir métodos de transferencia de dominio es crucial. Además, el orador señala que la tasa de error en este campo es más alta que la mayoría, y ser mejor que el 50% puede dar una ventaja en el comercio. Cuando se le preguntó acerca de las implicaciones prometedoras para las finanzas cuantitativas, el orador menciona que casi todas las áreas de investigación en aprendizaje profundo y redes neuronales tienen implicaciones prometedoras, específicamente el aprendizaje por refuerzo y la transferencia de dominio. Finalmente, existen problemas de almacenamiento de datos que deben abordarse y las técnicas de compresión de datos son útiles en este proceso.

  • 01:00:00 El ponente explica la naturaleza diversa del equipo de ingeniería responsable de ejecutar modelos de aprendizaje profundo para finanzas cuantitativas. El equipo trabaja en varias tareas, incluido el almacenamiento, los sistemas físicos y las capas que se encuentran sobre esos sistemas físicos. Además, cuando se trata de modelos de aprendizaje profundo versus modelos estadísticos, ambos tienen roles que desempeñar según el uso, y si un modelo profundo se convierte en una forma degenerada de regresión lineal, deja de ser interesante.
 

claves para el éxito en el comercio algorítmico | podcast | Dra. EP Chan


claves para el éxito en el comercio algorítmico | podcast | Dra. EP Chan

El comercio cuantitativo, o el comercio en general, se considera una de las profesiones más desafiantes para ingresar y tener éxito. El Dr. DE Shaw, pionero en el comercio cuantitativo y fundador de un fondo de cobertura multimillonario en Nueva York, ha reconocido que el campo se ha vuelto cada vez más desafiante con cada año que pasa. Muchos comerciantes experimentados en la industria se hacen eco de este sentimiento.

A pesar de su dificultad, vale la pena seguir el comercio cuantitativo para aquellos que les apasiona. Al igual que convertirse en un actor, cantante, modelo o escritor de ficción exitoso, lograr el éxito en el comercio algorítmico requiere dedicación y perseverancia. Si bien no todos pueden alcanzar el nivel de comerciantes de renombre como DE Shaw o Renaissance Technologies, los aspirantes a comerciantes no deben desanimarse. Es importante estar preparado para el fracaso ya que el éxito en este campo es un caso atípico.

Para las personas que aún no están en la industria financiera, es recomendable no abandonar su trabajo diario inmediatamente después de graduarse y comenzar su primera estrategia comercial. Se recomienda tener al menos dos estrategias comerciales rentables en funcionamiento durante un período de dos años antes de considerar la negociación a tiempo completo. Este consejo se basa en la experiencia personal y las experiencias de otros comerciantes exitosos.

Los comerciantes a menudo cometen el error de ser demasiado optimistas sobre el desempeño anterior de una estrategia, lo que los lleva a un apalancamiento demasiado alto. Es crucial evitar un apalancamiento excesivo, ya que puede eliminar rápidamente el patrimonio de una cuenta. Además, el rendimiento de la estrategia no suele seguir la tendencia de la misma manera. La asignación de capital basada únicamente en el desempeño pasado es un error común. En cambio, una asignación de paridad de riesgo, donde el capital se asigna inversamente proporcional a la volatilidad de una estrategia, generalmente es un mejor enfoque.

Otro error común es no invertir las ganancias en equipos de datos y personal durante los buenos tiempos. Es fundamental reinvertir una parte de las ganancias para mejorar la infraestructura de datos y contratar personal calificado, ya que esto puede ayudar a prevenir futuras caídas.

En una nota positiva, se recomienda comenzar con estrategias simples que tengan una justificación intuitiva. Es aconsejable comprender y mejorar las estrategias existentes antes de profundizar en enfoques más complejos como las redes neuronales recurrentes o el aprendizaje profundo. Al comenzar con estrategias simples, los comerciantes pueden comprender mejor las razones detrás de los éxitos o fracasos, atribuyéndolos a factores específicos.

En conclusión, el comercio cuantitativo es una profesión desafiante pero potencialmente gratificante. Requiere perseverancia, aprendizaje continuo y una cuidadosa toma de decisiones. Si bien hay trampas que evitar, también hay lecciones valiosas que aprender de los comerciantes experimentados. Al comenzar con estrategias simples, administrar el riesgo e invertir en infraestructura y personal, los aspirantes a comerciantes pueden aumentar sus posibilidades de éxito en el campo del comercio cuantitativo.

 

"Arbitraje estadístico básico: comprensión de las matemáticas detrás del comercio de pares" por Max Margenot


"Arbitraje estadístico básico: comprensión de las matemáticas detrás del comercio de pares" por Max Margenot

Bienvenido a Quanto Peon Algorithmic Trading Meetup, un evento dedicado a explorar el mundo de las finanzas cuantitativas. Soy Max Margit, científico de datos en Quanto Peon, y hoy profundizaré en el fascinante tema del arbitraje estadístico y los conceptos estadísticos fundamentales asociados con él.

Antes de sumergirnos en los aspectos teóricos, permítame brindarle una breve introducción a Quanto Peon. Nuestro objetivo principal es hacer que las finanzas cuantitativas sean accesibles para todos al ofrecer herramientas gratuitas de código abierto que permitan a las personas investigar y desarrollar sus propias estrategias comerciales algorítmicas. El comercio algorítmico implica el uso de instrucciones para ejecutar operaciones automáticamente en los mercados financieros, que van desde reglas simples como comprar acciones de Apple todos los días a las 10:00 a.m. hasta análisis cuantitativos más sofisticados utilizando modelos estadísticos.

El arbitraje estadístico, el foco de la discusión de hoy, gira en torno a la explotación de las ineficiencias del mercado mediante el análisis estadístico en lugar de depender de los desequilibrios físicos. Este enfoque tiene como objetivo identificar y capitalizar los desequilibrios estadísticos en los precios de los activos. Para comprender mejor este concepto, es crucial comprender algunos conceptos estadísticos fundamentales.

Uno de los conceptos clave que exploraremos es la estacionariedad, particularmente en el contexto de los datos de series temporales. La estacionariedad se refiere a una serie de puntos de datos donde cada muestra se extrae de la misma distribución de probabilidad con parámetros consistentes a lo largo del tiempo. En términos más simples, significa que la media y la desviación estándar de los datos permanecen constantes a lo largo del tiempo. Esto es importante porque muchos modelos estadísticos utilizados en finanzas asumen estacionariedad. Al asegurar la estacionariedad, podemos confiar en los resultados obtenidos de estos modelos.

Para ilustrar el concepto de estacionariedad, generemos algunos puntos de datos. Usaré una función básica llamada "generate_data_point" para crear un conjunto de muestras a partir de una distribución normal estándar. Estas muestras representan una serie de tiempo estacionaria a menudo denominada ruido blanco. En este caso, la media es cero y la desviación estándar es uno. Cuando graficamos estos datos, observamos un patrón aleatorio que se asemeja al ruido blanco.

Sin embargo, no todos los datos de series de tiempo exhiben estacionariedad. Si introducimos una tendencia en la media, la serie temporal se vuelve no estacionaria. En finanzas, la no estacionariedad puede ser mucho más compleja que este simple ejemplo. Las estadísticas descriptivas, como la media, pierden sentido para los datos no estacionarios, ya que no representan con precisión la serie temporal completa.

Ahora bien, ¿cómo determinamos si una serie de tiempo es estacionaria o no? Aquí es donde entran en juego las pruebas de hipótesis, como la prueba de Dickey-Fuller aumentada, comúnmente utilizada en el análisis de estacionariedad. Esta prueba nos ayuda a evaluar la probabilidad de que una serie de tiempo determinada no sea estacionaria.

Apliquemos la prueba de Dickey-Fuller aumentada a nuestros datos de series de tiempo generados. La prueba proporciona un valor p, que indica la probabilidad de rechazar la hipótesis nula de que la serie temporal no es estacionaria. En nuestro primer ejemplo, donde los datos se generaron deliberadamente como estacionarios, el valor p es cercano a cero. Esto nos permite rechazar la hipótesis nula y concluir que la serie temporal es probablemente estacionaria. Por otro lado, en el segundo ejemplo con la tendencia introducida, el valor p supera el umbral (0,01) y no podemos rechazar la hipótesis nula, lo que indica que la serie temporal probablemente no sea estacionaria.

Sin embargo, es importante tener en cuenta que las pruebas de hipótesis tienen limitaciones. Pueden ocurrir falsos positivos, especialmente cuando se trata de relaciones sutiles o complejas dentro de los datos financieros. Por lo tanto, es fundamental tener precaución y no basarse únicamente en pruebas de hipótesis para determinar la estacionariedad.

Ahora, cambiemos nuestro enfoque al comercio de pares. Si quiero participar en el comercio de pares, necesito considerar varios pares y hacer apuestas independientes en cada uno de ellos. En lugar de confiar en un solo par, diversificar mi cartera operando con 100, 200 o incluso 300 pares me permite aprovechar cualquier ventaja que pueda tener en cada par, aumentando así mis posibilidades generales de éxito.

El comercio de pares requiere un marco sólido para administrar y monitorear las transacciones de manera efectiva. Esto implica actualizar continuamente la relación entre los pares y ajustar las posiciones en consecuencia. Dado que los valores beta, que representan la relación entre los pares, pueden cambiar con el tiempo, necesito un sistema que se adapte dinámicamente a estos cambios.

Además, tener una estrategia de salida clara para cada operación es crucial. Debo determinar cuándo cerrar una posición si el par ya no exhibe el comportamiento esperado o si la relación entre los pares se rompe. Esto requiere un control constante del spread y tener criterios predefinidos para salir de una operación.

Además, la gestión de riesgos juega un papel importante en el comercio de pares. Es esencial calcular cuidadosamente el tamaño de las posiciones para cada par en función de factores como la volatilidad, la correlación y la exposición general de la cartera. Al diversificar mis operaciones y administrar el riesgo de manera efectiva, puedo minimizar el impacto de las condiciones adversas del mercado y maximizar las ganancias potenciales.

Para implementar estrategias de comercio de pares de manera efectiva, los comerciantes a menudo confían en técnicas cuantitativas avanzadas y desarrollan algoritmos sofisticados. Estos algoritmos escanean automáticamente el mercado en busca de pares potenciales, evalúan su cointegración y sus propiedades estadísticas, y generan señales comerciales basadas en criterios predefinidos.

En conclusión, la comprensión de la estacionariedad y la realización de pruebas adecuadas son cruciales al construir modelos estadísticos para el comercio algorítmico. Al comprender el concepto de estacionariedad y usar pruebas como la prueba aumentada de Dickey-Fuller, los comerciantes pueden evaluar la probabilidad de no estacionariedad en los datos de series temporales. El comercio de pares, como estrategia de arbitraje estadístico, permite a los operadores explotar las desviaciones temporales de la relación histórica entre dos valores correlacionados. Sin embargo, una implementación exitosa requiere marcos sólidos, monitoreo continuo, gestión de riesgos y el uso de técnicas cuantitativas avanzadas.

En Quanto Peon, nos esforzamos por cerrar la brecha entre las finanzas y la tecnología ofreciendo conferencias gratuitas sobre estadísticas y finanzas a través de nuestra serie de conferencias Quanto Peon. Nuestra misión es democratizar las finanzas cuantitativas y proporcionar a las personas las herramientas y el conocimiento para desarrollar sus estrategias comerciales algorítmicas.

 

movimiento browniano para matemáticas financieras | Movimiento browniano para cuantos | Cálculo estocástico


movimiento browniano para matemáticas financieras | Movimiento browniano para cuantos | Cálculo estocástico

Hola, YouTube, y bienvenido de nuevo al canal ASX Portfolio. Mi nombre es Jonathan y hoy vamos a adentrarnos en el fascinante mundo del movimiento browniano, específicamente en el contexto de las matemáticas financieras. Este es un tema crucial ya que forma la base de los procesos estocásticos y el cálculo estocástico, que son esenciales en el campo de las matemáticas financieras. El movimiento browniano es la base de las integrales de Ito y tiene una gran importancia, por lo que comprenderlo es de suma importancia. En videos futuros, exploraremos más las matemáticas, cubriendo temas como el movimiento browniano geométrico, sus aplicaciones y las integrales de Ito. Asegúrate de presionar el botón de suscripción si quieres estar al tanto de los próximos videos.

En este video, revisaremos un cuaderno Jupyter que he preparado para explicar qué es el movimiento browniano y cómo surge. Entonces, entremos de inmediato. Comenzaremos considerando una caminata aleatoria simétrica y luego pasaremos a una caminata aleatoria escalada, demostrando cómo convergen al movimiento browniano. A lo largo de esta explicación, usaremos notación y ejemplos del libro de Steven Shreve, "Stochastic Calculus for Finance II".

En primer lugar, es crucial comprender que las principales propiedades del movimiento browniano son las siguientes: es una martingala, lo que significa que la expectativa se basa únicamente en la posición actual de la partícula o el precio de las acciones. Además, es un proceso de Markov y acumula variación cuadrática. La variación cuadrática es un concepto único en el cálculo estocástico, que lo distingue del cálculo ordinario. En este episodio, profundizaremos en lo que implica la variación cuadrática.

Si desea seguir el código, está disponible en mi sitio web. He importado las dependencias necesarias que necesitaremos para esta demostración. Es importante tener en cuenta que el movimiento browniano es un proceso estocástico y, para nuestros propósitos, consideraremos un espacio de probabilidad filtrado con resultados y una filtración F, junto con un espacio de probabilidad P. Aquí, tenemos un conjunto de resultados reales dentro del intervalo de 0 al tiempo T.

El movimiento browniano siempre tiene un valor inicial de cero. Tiene incrementos independientes, sigue una distribución gaussiana y exhibe trayectorias de muestra continuas casi con seguridad. Vamos a explicar todas estas propiedades en detalle.

Comencemos con el ejemplo más simple: un paseo aleatorio simétrico. Si no está familiarizado con el concepto de paseo aleatorio, considérelo como una secuencia de lanzamientos sucesivos de monedas. Cada resultado, representado por la variable omega, puede ser cara o cruz. Usaremos la variable X_j para representar cada resultado, tomando un valor de 1 para cara y -1 para cruz.

Si definimos un proceso con m_0 igual a cero, entonces m_k será la suma de todas las posibles trayectorias de lanzamiento de monedas para k lanzamientos. En este caso, tenemos una caminata aleatoria en la que el proceso puede moverse hacia arriba o hacia abajo en 1, y sumamos estos incrementos sobre las rutas. He escrito un script para generar 10 rutas de muestra en un horizonte temporal de 10 años. La gráfica demuestra cómo la caminata aleatoria se mueve hacia arriba o hacia abajo en 1 en cada paso de tiempo a lo largo de los caminos.

Este ejemplo revela algunas propiedades interesantes. Primero, los incrementos entre periodos de tiempo, como m_k+1 - m_k, son independientes. Además, la expectativa de estos incrementos independientes es cero, y la varianza es igual a la diferencia en el tiempo o la distancia entre los pasos de tiempo (k_i+1 - k_i). La varianza se acumula a razón de uno por unidad de tiempo.

Además, el paseo aleatorio simétrico es una martingala. Esto significa que la expectativa condicional del siguiente valor, dada la posición actual, es igual a la posición actual. En el contexto de un paseo aleatorio simétrico, la expectativa de la

Continuando desde donde lo dejamos, en el siguiente video, exploraremos cómo crear muestras de movimiento browniano geométrico usando Python. El movimiento browniano geométrico es un proceso estocástico comúnmente utilizado en matemáticas financieras para modelar los precios de las acciones. Es un concepto esencial para entender en el campo.

Pero antes de sumergirnos en eso, recapitulemos algunas de las propiedades clave del movimiento browniano. El movimiento browniano es un proceso estocástico caracterizado por varias propiedades:

  1. Incrementos independientes: los incrementos del movimiento browniano son independientes, lo que significa que el cambio entre dos puntos en el tiempo no está relacionado con el cambio entre otros dos puntos.

  2. Distribución gaussiana: Los incrementos del movimiento browniano siguen una distribución gaussiana o normal. Esta distribución describe la probabilidad de varios resultados y es un concepto fundamental en la teoría de la probabilidad.

  3. Rutas de muestra continuas: el movimiento browniano tiene rutas de muestra continuas, lo que significa que no es diferenciable en cada período de tiempo. Esta propiedad lo hace adecuado para modelar varios fenómenos con fluctuaciones aleatorias.

  4. Variación cuadrática: La variación cuadrática es una propiedad única del movimiento browniano en el cálculo estocástico. Mide las fluctuaciones acumuladas a lo largo del tiempo y es crucial para comprender el comportamiento de los procesos estocásticos.

Ahora, analicemos el movimiento browniano geométrico. El movimiento browniano geométrico es una extensión del movimiento browniano que incorpora un crecimiento exponencial. Se usa comúnmente para modelar el comportamiento de los activos financieros, como los precios de las acciones. El movimiento browniano geométrico tiene la siguiente forma:

dS(t) = μS(t)dt + σS(t)dW(t)

Aquí, S(t) representa el precio del activo en el momento t, μ es el rendimiento esperado o la tasa de deriva, σ es la volatilidad o desviación estándar de los rendimientos, dt es un intervalo de tiempo pequeño y dW(t) es un movimiento browniano estándar. incremento.

Para simular el movimiento browniano geométrico, podemos discretizar el proceso utilizando métodos numéricos como el método de Euler o la integral de Itô. Estos métodos nos permiten aproximarnos al proceso continuo usando una secuencia de pasos discretos.

En el próximo video, exploraremos los detalles matemáticos del movimiento browniano geométrico y sus aplicaciones en las matemáticas financieras. También proporcionaremos ejemplos prácticos y fragmentos de código en Python para simular y visualizar el movimiento browniano geométrico.

Si está interesado en obtener más información sobre este tema, asegúrese de suscribirse a nuestro canal y estar atento al próximo video. Esperamos poder compartir más ideas con usted. ¡Gracias por su atención y nos vemos en el próximo video!

 

Simulación de movimiento browniano geométrico en Python | Cálculo estocástico para cuantos


Simulación de movimiento browniano geométrico en Python | Cálculo estocástico para cuantos

Buenos días, YouTube, y bienvenidos de nuevo al canal ASX Portfolio. Mi nombre es Jonathan y hoy vamos a simular el movimiento browniano geométrico en Python. En este tutorial, no analizaremos la derivación de la dinámica del movimiento browniano geométrico ni cubriremos el cálculo de Ito, las integrales de Ito y los procesos estocásticos. Sin embargo, exploraremos esos temas en detalle en el siguiente tutorial. Si está interesado en obtener más información sobre ellos, suscríbase a nuestro canal y presione la campana de notificación para que pueda recibir una notificación cuando se publique ese video.

Saltemos a la simulación. Usaré este cuaderno Jupyter para fines de demostración. Primero, definiremos los parámetros para nuestra simulación. El coeficiente de deriva, mu, se establece en 0,1 o 10% durante un año. Definiremos el número de pasos de tiempo como "n" y lo estableceremos en 100 para una simulación granular. El tiempo se medirá en años, denotados como "T". El número de simulaciones se denotará como "m" y se establecerá en 100. El precio inicial de las acciones, S0, se establecerá en 100, y la volatilidad, sigma, se establecerá en 30. Importemos las dependencias necesarias: numpy como np y matplotlib .pyplot como plt.

Ahora simulemos las trayectorias geométricas del movimiento browniano. Para calcular el paso de tiempo, dividimos T por n. A continuación, usaremos matrices numpy para realizar la simulación en un solo paso en lugar de iterar sobre las rutas. Definiremos una matriz llamada "st" y usaremos la función exponencial de numpy. Dentro de la función, definiremos los componentes: mu menos sigma al cuadrado dividido por 2, multiplicado por dt. Luego, multiplicaremos sigma por la función random.normal de numpy, que muestra la distribución normal, y la multiplicaremos por la raíz cuadrada de dt. El tamaño de esta matriz será m por n, lo que representa el número de simulaciones y pasos de tiempo, respectivamente. Como queremos la simulación para cada paso de tiempo, tomaremos la transposición de esta matriz.

Para incluir el punto inicial de cada simulación, usaremos la función vstack de numpy para apilar una matriz numpy de unos con la matriz de simulación st. Esto asegurará que cada simulación comience con el valor inicial. Finalmente, multiplicaremos la matriz apilada por el valor inicial para tener en cuenta los cambios diarios en términos de deriva, varianza y componente estocástico. Esto nos dará las implementaciones de pasos de tiempo. Para acumular estos valores a lo largo del tiempo, usaremos la función de producto acumulativo de numpy a lo largo de cada ruta de simulación, especificando el eje 1. Esto calculará el producto acumulativo para cada ruta.

Ahora que tenemos las rutas simuladas, consideremos los intervalos de tiempo en años. Usaremos la función linspace de numpy para generar pasos de tiempo espaciados uniformemente de 0 a T, con n+1 espacios. Esto nos dará una matriz llamada "tiempo". A continuación, crearemos una matriz numpy llamada "relleno" con la misma forma que st para que podamos trazar la función. Usaremos la función completa de numpy y estableceremos el valor de relleno en tiempo. Tomando la transposición de este vector, podemos trazar el gráfico con años a lo largo del eje x y el precio de la acción a lo largo del eje y, teniendo en cuenta la dispersión resultante del 30% de volatilidad y el 10% de aumento en la media o deriva sobre este movimiento browniano geométrico.

El movimiento browniano geométrico es un modelo útil para la teoría de precios de opciones y varias aplicaciones de matemáticas financieras. Espero que hayas encontrado valor en este tutorial. En el próximo video, profundizaremos en las matemáticas financieras, el cálculo de Ito, las integrales de Ito y exploraremos cómo aumentar la complejidad de las ecuaciones diferenciales estocásticas agregando diferentes parámetros. Si desea obtener más información, asegúrese de suscribirse a nuestro canal y presionar la campana de notificación para que pueda recibir una notificación cuando se publique ese video la próxima semana. Hasta entonces, manténgase atento a más contenido valioso. Gracias por mirar, y nos vemos en el próximo video.

 

Cálculo estocástico para cuantos | Comprender el movimiento browniano geométrico usando Itô Calculus


Cálculo estocástico para cuantos | Comprender el movimiento browniano geométrico usando Itô Calculus

Buenos días, YouTube, y bienvenidos de nuevo a ASX Portfolio. Hoy vamos a discutir por qué el movimiento browniano es una opción inapropiada para modelar los mercados financieros. Es bastante obvio que el movimiento browniano daría como resultado precios de acciones negativos, lo cual no es realista. En su lugar, necesitamos una forma de preservar algunas de las propiedades estocásticas del movimiento browniano e incorporarlas a nuestros modelos. Esto se puede lograr mediante el uso de procesos de Ito, que nos permiten agregar la fuente de riesgo del movimiento browniano.

Un proceso de Ito bien conocido es el Movimiento Browniano Geométrico (GBM), con el que muchos de ustedes pueden estar familiarizados. Podemos aprovechar las propiedades del movimiento browniano para desarrollar nuevos modelos que se alineen mejor con ejemplos de la vida real. Para lograr esto, empleamos un tipo especial de cálculo conocido como cálculo de Ito, que se usa comúnmente en las matemáticas financieras estocásticas.

Hoy nos centraremos en comprender la integral de Ito y cómo puede ayudarnos a resolver problemas complejos. Analizaremos el lema de Ito, que sirve como identidad en el cálculo de Ito y ayuda en la derivación de reglas. Además, exploraremos la fórmula de Ito-Dobelin y la derivación de la dinámica del Movimiento Browniano Geométrico.

Para profundizar en estos conceptos, recomiendo encarecidamente el segundo libro de Stephen Shreve, "Modelos de tiempo continuo para el cálculo estocástico". El capítulo 4 cubre el material que discutiremos hoy.

Ahora, comencemos por entender qué es una integral de Ito. Es esencial recordar que todas las matemáticas que discutiremos se basan en un espacio de probabilidad filtrado. Este espacio abarca los resultados, las filtraciones y las medidas de probabilidad. La filtración se refiere a un sigma-álgebra que contiene toda la información hasta el tiempo t. Aunque la teoría de la probabilidad es compleja, hoy solo la abordaremos brevemente. Para una comprensión más profunda, recomiendo consultar los primeros tres capítulos del libro de Shreve.

La integral de Ito está representada por el símbolo ∫δdW, donde δ es un proceso estocástico y dW es el proceso de Wiener. Para comprender su significado, imaginemos dividir el período de tiempo de 0 a T en pequeños intervalos. Podemos denotar el proceso estocástico δ elevado a n, donde n representa el número de intervalos de tiempo. Este proceso está adaptado, lo que significa que sus valores están determinados por los resultados de los lanzamientos de monedas en cada intervalo de tiempo.

Ahora, considere la integral como el límite de una suma cuando el número de intervalos se acerca al infinito. Cada sumando consiste en el proceso estocástico δ multiplicado por el cambio en el proceso de Wiener entre intervalos. A medida que los intervalos se hacen más pequeños, convergemos en la integral de Ito. Sin embargo, para que exista este límite, se deben cumplir dos condiciones: el proceso δ debe estar adaptado a la filtración y debe ser integrable al cuadrado.

Ahora que entendemos la notación, pasemos a los procesos generales de Ito. Estos procesos ocurren en el mismo dominio de tiempo con el mismo espacio de resultados. Implican integrales basadas en el tiempo e integrales de Ito con respecto al proceso de Wiener. La integral basada en el tiempo es similar a una integral de Riemann regular, mientras que la integral de Ito captura la naturaleza estocástica del proceso. Estos procesos se pueden dividir en términos de deriva y difusión.

Un ejemplo de un proceso de Ito es el Movimiento Browniano Geométrico (GBM). Comprende un término de deriva y un término de difusión. La deriva está determinada por una constante μ, mientras que la difusión está controlada por un parámetro de volatilidad σ. La dinámica de GBM se puede expresar mediante integrales, como se muestra en la ecuación.

Ampliando esto, también podemos considerar la integral de un proceso de Ito. Por ejemplo, la integral del proceso de Ito puede representar las pérdidas y ganancias (P&L) comerciales.

En la descomposición de Itô-Doob, tenemos este proceso genérico representado por la integral del término de deriva, la integral del término de difusión y el término integral de Itô. Ahora, la fórmula de Itô-Doob proporciona una forma de calcular el diferencial de una función del proceso. Establece que la diferencial de la función es igual a la derivada parcial de la función con respecto al tiempo, más las derivadas parciales de la función con respecto a las variables de estado multiplicadas por los términos de deriva, más las derivadas parciales de la función con respecto a las variables de estado multiplicadas por los términos de difusión, más la integral de las derivadas parciales de la función con respecto a las variables de estado multiplicadas por el término integral de Itô.

Esta fórmula nos permite calcular el cambio en el valor de una función a medida que el proceso evoluciona con el tiempo. Es una herramienta fundamental en el cálculo de Itô y se utiliza ampliamente en el análisis estocástico y las finanzas matemáticas.

Pasando al movimiento browniano geométrico (GBM), es un tipo específico de proceso de Itô comúnmente utilizado para modelar la dinámica de los precios de las acciones y otros activos financieros. GBM incorpora componentes de deriva y difusión. El término de deriva representa la tasa de rendimiento esperada del activo, mientras que el término de difusión captura la volatilidad o la aleatoriedad en los movimientos de precios del activo.

La dinámica de GBM se puede derivar usando el cálculo de Itô. Al aplicar la fórmula de Itô al logaritmo del precio del activo, obtenemos una expresión que describe el cambio en el logaritmo del precio a lo largo del tiempo. Este cambio es igual al término de deriva multiplicado por el incremento de tiempo, más el término de difusión multiplicado por la integral de Itô. Al exponenciar ambos lados de la ecuación, recuperamos la dinámica del precio del activo en sí.

Comprender la dinámica de GBM es crucial en la valoración de opciones y la gestión de riesgos. Nos permite modelar el comportamiento estocástico de los precios de los activos y estimar las probabilidades de varios resultados. GBM se ha utilizado ampliamente en matemáticas financieras y ha servido como base para muchos modelos de fijación de precios, como el modelo Black-Scholes para la fijación de precios de opciones.

En resumen, el cálculo de Itô proporciona un marco poderoso para modelar y analizar procesos estocásticos en finanzas. Al incorporar las integrales de Itô y aplicar el lema de Itô y la fórmula de Itô-Doob, podemos derivar la dinámica de varias variables financieras y desarrollar modelos que capturen las propiedades estocásticas de los mercados del mundo real. El cálculo de Itô ha revolucionado el campo de las finanzas matemáticas y sigue siendo una herramienta esencial para comprender y gestionar el riesgo financiero.

 

Cálculo estocástico para cuantos | Fijación de precios neutral al riesgo para derivados | Precio de las opciones explicado


Cálculo estocástico para cuantos | Fijación de precios neutral al riesgo para derivados | Precio de las opciones explicado

En este video, profundizaremos en las matemáticas financieras detrás de la valoración de un derivado financiero utilizando la simulación de Monte Carlo y la fijación de precios neutral al riesgo. Responderemos preguntas como por qué se utiliza la simulación Monte Carlo, qué es la fijación de precios neutral al riesgo y por qué la tasa de crecimiento de las acciones no entra en el modelo derivado.

La fijación de precios neutral al riesgo es una metodología en la que el valor de una opción es la expectativa descontada de sus pagos futuros. En otras palabras, es el valor esperado de todos los pagos posibles de un derivado, descontado hasta el momento presente. La tasa de crecimiento de la acción subyacente no afecta el precio de la opción en el marco de fijación de precios neutral al riesgo. Esto se debe a que el derivado y la acción subyacente tienen una correlación perfecta, lo que permite la replicación y la creación de una cartera sin riesgo.

Hay varios beneficios al usar el enfoque de fijación de precios neutral al riesgo sobre otros métodos de valoración. En primer lugar, con formulaciones derivadas complejas, las soluciones de forma cerrada pueden no ser viables. En tales casos, el uso de métodos de replicación y la resolución de ecuaciones diferenciales parciales (PDE) pueden ser computacionalmente costosos. La fijación de precios neutral al riesgo, por otro lado, permite una fácil aproximación del valor de la opción utilizando la simulación de Monte Carlo, que es menos costosa desde el punto de vista computacional.

Para explicar la fijación de precios neutral al riesgo, comenzamos considerando el modelo binomial de un período. En este modelo, la acción puede subir o bajar, y el valor de la opción depende de estos dos resultados posibles. Al construir una cartera de acciones subyacentes y un activo libre de riesgo, podemos replicar el pago de la opción. Utilizando el principio de no arbitraje, el valor de la opción en el momento cero debe ser igual al valor de la cartera en el momento cero. Al resolver las ecuaciones lineales, podemos obtener una fórmula que representa la expectativa descontada en el modelo binomial.

Introducimos el concepto de una medida de probabilidad neutral al riesgo, denotada como q, que nos permite pasar de las probabilidades físicas del precio de las acciones a las probabilidades neutrales al riesgo. Este cambio se logra volviendo a ponderar las probabilidades físicas mediante una variable aleatoria denominada derivada aleatoria de nickdem. Este derivado nos permite traducir el valor de la opción del mundo de fijación de precios neutral al riesgo al mundo de la probabilidad física.

El objetivo de la fijación de precios neutral al riesgo es identificar el proceso derivado aleatorio de nickdem, denotado como Zt, que garantiza que todos los precios de acciones descontados sean martingalas bajo la medida de probabilidad q neutral al riesgo. Al realizar un cambio de medida, podemos convertir el movimiento browniano original bajo la medida de probabilidad física en un nuevo movimiento browniano bajo la medida de probabilidad neutral al riesgo. Este nuevo movimiento browniano es un proceso de martingala, lo que indica que su expectativa permanece constante en el tiempo.

Para aplicar estos conceptos, consideramos el modelo geométrico de movimiento browniano, que representa la dinámica de una acción que no paga dividendos. El modelo consta de un componente determinista y un componente estocástico, que representan la volatilidad. Sin embargo, la dinámica de stock original no es una martingala bajo las probabilidades físicas debido al componente determinista. Para hacer de la dinámica una martingala, presentamos la derivada de Radon-Nikodym, que elimina el término de deriva y transforma la dinámica de las acciones en un proceso de martingala bajo la medida de probabilidad neutral al riesgo.

En resumen, la fijación de precios neutral al riesgo y la simulación Monte Carlo proporcionan un marco valioso para la valoración de derivados financieros. El enfoque de fijación de precios neutral al riesgo ofrece beneficios tales como simplicidad, eficiencia computacional y la capacidad de manejar estructuras derivadas complejas. Al usar el derivado de nickdem aleatorio y cambiar la medida de probabilidades físicas a probabilidades neutrales al riesgo, podemos valorar con precisión los derivados y replicar sus pagos sin riesgo.

Razón de la queja: