Comercio Cuantitativo - página 8

 

Rama Cont y Francesco Capponi: "Impacto cruzado en los mercados de renta variable"



Rama Cont y Francesco Capponi: "Impacto cruzado en los mercados de renta variable"

Rama Cont y Francesco Capponi profundizan en el concepto de impacto cruzado en los mercados de valores a través de su análisis del flujo de órdenes y datos de precios. Afirman que el impacto cruzado significa que el precio de un activo está influenciado no solo por su propio flujo de órdenes sino también por el flujo de órdenes de otros activos. Si bien los estudios teóricos anteriores han intentado derivar las consecuencias de los efectos de impacto cruzado y extender los modelos de ejecución comercial óptima de un solo activo a múltiples activos, Cont y Capponi proponen un enfoque más simplificado para explicar las correlaciones entre los rendimientos de los activos y el flujo de órdenes.

Argumentan que no es necesaria una matriz integral de coeficientes de impacto de precios para dar cuenta de estas correlaciones. En cambio, sostienen que las correlaciones observadas pueden atribuirse al hecho de que los participantes del mercado a menudo se involucran en el comercio de múltiples activos, lo que genera desequilibrios en el flujo de órdenes correlacionados entre los activos. Para identificar la importancia de los coeficientes de impacto cruzado y los principales impulsores de los costos de ejecución, los presentadores sugieren utilizar un análisis de componentes principales (PCA) en las matrices de correlación de los rendimientos y los desequilibrios del flujo de pedidos.

Cont y Capponi proponen un modelo parsimonioso para el impacto cruzado en los mercados de acciones, centrándose en el balance del flujo de pedidos propio de una acción y la correlación de los desequilibrios del flujo de pedidos. Encuentran que un modelo de un factor para el desequilibrio del flujo de pedidos es suficiente para explicar las correlaciones cruzadas de los rendimientos. Este modelo se puede utilizar para la ejecución de carteras y el análisis de costos de transacción, y los presentadores recomiendan el uso de un modelo confiable para el impacto de un solo activo junto con un buen modelo para factores comunes en el flujo de órdenes entre activos.

Los ponentes destacan la importancia de establecer un modelo causal y una interpretación de la ecuación. Expresan su disposición a compartir materiales adicionales y actualizaciones, enfatizando su compromiso de promover la comprensión en esta área de investigación.

  • 00:00:00 En esta sección del video, Rama Cont y Francesco Capponi discuten el concepto de impacto cruzado en los mercados de valores. Investigan este concepto analizando el flujo de órdenes y los datos de precios de los mercados de acciones, y explican que el impacto del mercado, o la ejecución de operaciones que mueven el precio de un activo, contribuye al costo de ejecución. También muestran que los movimientos de precios son impulsados por el desequilibrio agregado entre la oferta y la demanda, y definen la noción de desequilibrio del flujo de pedidos como una herramienta útil para construir modelos de impacto.

  • 00:05:00 En esta sección, Rama Cont y Francesco Capponi analizan el impacto lineal del desequilibrio del flujo de pedidos en los mercados de libros de pedidos centralizados. Este desequilibrio agregado entre la oferta y la demanda es lo que impulsa el precio, que puede verse como un modelo de regresión con el coeficiente de impacto que refleja la noción opuesta de liquidez. El coeficiente tiene una relación inversa altamente correlacionada con la profundidad de la cartera de pedidos, y la extracción del coeficiente de impacto se puede realizar a través de un cálculo de covarianza. Si bien el estudio se realizó anteriormente para acciones individuales, los participantes del mercado también están interesados en las correlaciones entre múltiples activos, y se han encontrado correlaciones positivas entre el desequilibrio del flujo de pedidos y los rendimientos de diferentes valores.

  • 00:10:00 En esta sección, Rama Cont y Francesco Capponi discuten el concepto de impacto cruzado y sus estudios teóricos y empíricos. Explican que el impacto cruzado se refiere al hecho de que el precio de un activo no está influenciado únicamente por su propio flujo de pedidos, sino también por el flujo de pedidos de otros activos. Los estudios empíricos han documentado una correlación positiva entre el flujo de pedidos de un activo y los movimientos de precios de otro activo, al menos en la clase de activos homogéneos. Los estudios teóricos han tratado de derivar las consecuencias de tales efectos de impacto cruzado y han extendido el modelo para la ejecución óptima del comercio de un solo activo a múltiples activos donde el modelo incluye efectos de impacto cruzado. Sin embargo, esto conduce a una gran cantidad de coeficientes de impacto cruzado que deben estimarse.

  • 00:15:00 En esta sección, los presentadores discuten el concepto de impacto cruzado y su relevancia para explicar los fenómenos de mercado observables. Se preguntan si es necesaria una matriz completa de coeficientes de impacto de precios para explicar las correlaciones entre la rentabilidad de los activos y el flujo de órdenes en un mercado y si es posible un enfoque más parco. También dibujan analogías con la acción a distancia en la física y discuten la necesidad de un mecanismo subyacente que vincule los activos para establecer un impacto causal. El objetivo es diseñar un modelo de impacto de múltiples activos que solo incluya los coeficientes necesarios y evite la complejidad innecesaria.

  • 00:20:00 En esta sección, los oradores argumentan que el concepto de impacto cruzado es innecesario para explicar las covariaciones en los movimientos de precios y el desequilibrio del flujo de órdenes observado en los mercados de valores. Las correlaciones observadas pueden explicarse por el hecho de que los participantes del mercado a menudo negocian múltiples activos generando desequilibrios de flujo de órdenes correlacionados entre activos, lo que a su vez conduce a correlaciones en los rendimientos de diferentes activos. Los disertantes presentan un diagrama de modelo causal que muestra que el precio de un activo es impulsado por el desequilibrio del flujo de órdenes, que es la suma algebraica de todas las órdenes de compra y venta generadas por entidades y estrategias comerciales de activos múltiples. Argumentan que el modelo de impacto de un solo activo es suficiente para explicar estas correlaciones y no se necesita un modelo de impacto cruzado adicional.

  • 00:25:00 En esta sección, la visión tradicional de la oferta y la demanda impulsando el precio de cada activo, creando correlaciones en el saldo del flujo de pedidos, se compara con el modelo de impacto cruzado que postula un mecanismo que influye en el rendimiento de una acción. desde la distancia Estas suposiciones se pueden probar con los datos disponibles sobre el flujo de pedidos y las devoluciones condicionando las variables en el diagrama y realizando regresiones condicionales. Se discute la construcción de los modelos de impacto para múltiples activos y el problema de identificación inherente que plantea. Se utiliza un modelo lineal con dos variables, rendimientos y OFI, para crear matrices de coeficientes theta y beta. El flujo de pedidos neto para una acción se define como el flujo de entrada a la cola de oferta menos el flujo de salida de la cola de demanda.

  • 00:30:00 En esta sección, Rama Cont y Francesco Capponi analizan la covarianza de los rendimientos con el desequilibrio del flujo de órdenes y cómo se relaciona con la matriz beta y el impacto cruzado. Destacan que no es necesario tener elementos fuera de la diagonal en beta para obtener elementos fuera de la diagonal en la matriz de covarianza, ya que la covarianza puede provenir de la correlación de los flujos de pedidos o de la matriz de impacto cruzado. El ejemplo de dos acciones sin correlación en los flujos de órdenes pero con coeficientes de impacto cruzado resalta la importancia de conocer la correlación de flujos de órdenes para identificar el coeficiente de impacto cruzado. La matriz de covarianza se ve afectada por los coeficientes de correlación e impacto cruzado en el modelo, que se pueden observar con números en diferentes escenarios.

  • 00:35:00 En esta sección, Rama Cont y Francesco Capponi analizan la diferencia entre modelar la correlación y el flujo de pedidos entre acciones y comprender el impacto cruzado y modelarlo. Explican que simplemente observar una correlación distinta de cero entre el flujo de pedidos de un activo y el rendimiento de otro activo no implica que necesite un coeficiente de impacto cruzado distinto de cero en el modelo. También presentan ejemplos de baja correlación y flujo de pedidos, alto impacto cruzado y viceversa para mostrar que es imposible inferir el impacto cruzado solo a partir de estas covarianzas. Finalmente, analizan los datos que analizaron, que incluyen el flujo de pedidos neto, los desequilibrios del flujo de pedidos y los rendimientos de 67 acciones del NASDAQ 100 durante dos años y medio, y explican cómo redefinieron y normalizaron los desequilibrios de flujo de pedidos y rendimientos.

  • 00:40:00 En esta sección del video, los oradores examinan la relación entre la correlación de los rendimientos de las acciones y los desequilibrios en el flujo de pedidos de diferentes acciones. Al trazar la correlación de los rendimientos de las acciones frente a los desequilibrios del flujo de pedidos de otras acciones, los oradores demuestran que la gran mayoría de los pares de acciones tienen una correlación muy cercana a la igualdad, lo que sugiere que la correlación entre los rendimientos y los desequilibrios del flujo de pedidos podría deberse simplemente a la correlación entre diferentes saldos. Para probar si se necesita un modelo de impacto de mercado multivariable, los oradores usan un análisis de regresión y encuentran que los coeficientes de impacto cruzado están muy cerca de cero, lo que indica que incluso si fueran identificables, solo tienen un impacto pequeño en el impacto total.

  • 00:45:00 En esta sección, Rama Cont y Francesco Capponi proponen un enfoque diferente para identificar la importancia de los coeficientes de impacto cruzado y los principales impulsores de los costos de ejecución. Sugieren usar un análisis de componentes principales (PCA) en las matrices de correlación de rendimientos y balance de flujo de órdenes y usar un modelo factorial para el desequilibrio de flujo de órdenes. El primer componente principal del modelo factorial se usa para probar la importancia restante de cualquier coeficiente de impacto de cruce y el residuo de la regresión se interpreta como el flujo de orden idiosincrático debido solo a la acción en ese stock. El enfoque tiene como objetivo desentrañar la contribución del componente idiosincrático del flujo de órdenes propias de una acción del componente común debido al comercio cruzado.

  • 00:50:00 En esta sección del video, Rama Cont y Francesco Capponi analizan la correlación entre los primeros componentes principales de los rendimientos y los saldos de flujo de órdenes de los ETF que rastrean el Nasdaq 100 y el S&P 500. Encuentran que el primer componente principal de rendimientos tiene una correlación del 91 % con el rendimiento general del ETF que rastrea el Nasdaq 100. De manera similar, el primer componente principal del saldo del flujo de pedidos tiene una correlación del 82 % con el saldo del flujo de pedidos del ETF QQQ que rastrea el mismo índice . También observan que los primeros componentes principales de los rendimientos y el desequilibrio del flujo de órdenes están relacionados con el movimiento general del mercado. Esto los lleva a explicar su enfoque de dos pasos para eliminar los elementos comunes en el flujo de pedidos y mejorar los rendimientos.

  • 00:55:00 En esta sección, Rama Cont y Francesco Capponi analizan el impacto cruzado en los mercados de valores, que se refiere a cómo el desequilibrio del flujo de pedidos propio de una acción y la uniformidad del flujo de pedidos entre las acciones afectan el rendimiento de una acción. Muestran que el coeficiente de autoimpacto es un determinante importante del rendimiento de una acción, mientras que el coeficiente de impacto cruzado es muy pequeño y casi todos se vuelven negativos una vez que se tiene en cuenta el componente principal. Luego prueban cuánto contribuyen los términos de impacto cruzado a explicar el costo de ejecución de los retornos y evalúan si son estadística y económicamente significativos, al mismo tiempo que cuestionan su estabilidad en el tiempo.

  • 01:00:00 En esta sección, Rama Cont y Francesco Capponi analizan el impacto del impacto cruzado y su importancia en los mercados de valores. Llegan a la conclusión de que, si bien las estadísticas pueden ser significativas desde el punto de vista económico, la magnitud es pequeña y apenas hay una diferencia distinguible en el poder explicativo cuando se incluyen todos los demás desequilibrios del flujo de órdenes en la regresión. Abogan por una forma más parsimoniosa de modelar el impacto y sugieren usar solo el balance del flujo de pedidos de una acción y la correlación de los desequilibrios del flujo de pedidos para modelar el impacto. También enfatizan la importancia de la estabilidad en el tiempo y analizan las submuestras para garantizar que los coeficientes de impacto cruzado sean estables.

  • 01:05:00 En esta sección, Rama Cont y Francesco Capponi resumen sus conclusiones sobre los modelos de impacto cruzado en los mercados de valores. Argumentan que el fenómeno de la covariación positiva entre los rendimientos y el saldo del flujo de pedidos en diferentes acciones se puede explicar sin introducir modelos de alta dimensión con muchos coeficientes. Un modelo simple de un factor para el flujo de pedidos en desequilibrio es suficiente para explicar estos patrones de correlaciones cruzadas de rendimientos. Sugieren que un mejor enfoque para construir modelos de impacto de activos múltiples es centrarse en construir modelos de factores comunes en el flujo de pedidos, como un modelo de factor lineal o un análisis de componentes principales del flujo de pedidos. La implementación de un modelo de impacto de un solo activo que relacione el flujo de órdenes con su propio rendimiento es suficiente para explicar la amplitud del costo de ejecución en la ejecución de la cartera.

  • 01:10:00 En esta sección, Rama Cont y Francesco Capponi analizan las aplicaciones prácticas de su modelo, específicamente en el contexto de la ejecución de carteras y el análisis de costos de transacción (TCA). El modelo permite la cuantificación de los costes de ejecución, teniendo en cuenta la homogeneidad en los flujos de pedidos entre activos. La diferencia en los costos de ejecución entre un solo activo y una cartera está vinculada al factor de comunalidad. El modelo se puede utilizar para medir los costos de ejecución a nivel de cartera y ayuda a comprender mejor el impacto de las carteras comerciales. Sugieren usar un buen modelo para el impacto de un solo activo junto con un buen modelo para los factores comunes en el flujo de pedidos entre los activos.

  • 01:15:00 En esta sección, los disertantes discuten el uso del primer componente principal de los rendimientos en la ecuación 12. Señalan que existe una alta correlación entre el uso del componente principal de OFI y el uso de los rendimientos, pero argumentan que querían seguir su análisis causal y modelar la similitud para que los desequilibrios expliquen los rendimientos. Enfatizan la importancia de tener un modelo causal y una interpretación para la ecuación. Los oradores agradecen a la audiencia por su atención y expresan su disposición a compartir más materiales y actualizaciones.
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
  • 2020.10.13
  • www.youtube.com
Title: "Cross-Impact in Equity Markets" Joint Work with Francesco CapponiAbstract: The empirical finding that market movements in stock prices may be correl...
 

Adam Grealish: "Un enfoque algorítmico de la inversión personal"



Adam Grealish: "Un enfoque algorítmico de la inversión personal"

Adam Grealish, director de inversiones de Betterment, brinda información sobre el enfoque algorítmico de la empresa para la inversión personal y su estrategia basada en objetivos. Betterment utiliza un modelo de asesoramiento robótico, aprovechando algoritmos y una intervención humana mínima para brindar asesoramiento y gestión de inversiones a sus clientes.

Grealish destaca tres factores clave que determinan los resultados de la inversión: mantener los costos bajos, la optimización de impuestos y el comercio inteligente. Si bien todos los factores son importantes, Betterment pone un fuerte énfasis en los primeros tres. La empresa emplea la técnica de optimización Black Litterman para construir carteras globalmente diversificadas y monitorea continuamente los pesos objetivo en su vasta base de clientes de medio millón de personas. La optimización fiscal, incluidas estrategias como la recolección de pérdidas fiscales, la ubicación de activos y la clasificación de lotes, ofrece oportunidades para superar al mercado.

En la segunda parte de su discusión, Grealish distingue el enfoque de Betterment de los asesores financieros automatizados tradicionales. A diferencia del enfoque de "talla única" de los asesores robóticos tradicionales, el enfoque algorítmico de Betterment considera factores individuales como los objetivos, el horizonte temporal y la tolerancia al riesgo. Esta personalización permite carteras personalizadas adaptadas a la situación única de cada inversor. Betterment también ofrece características adicionales como la recolección de pérdidas fiscales y carteras coordinadas de impuestos para maximizar la eficiencia fiscal y aumentar los rendimientos.

Grealish profundiza más en los detalles de las estrategias de inversión de Betterment. La empresa fomenta la estabilidad de la asignación a largo plazo, ajustando las carteras solo una vez al año para avanzar hacia la asignación objetivo. Utilizan algoritmos de reequilibrio basados en disparadores para gestionar la desviación de la asignación objetivo y minimizar los riesgos. Las carteras de Betterment se construyen utilizando ETF basados en una amplia capitalización de mercado, lo que optimiza la exposición a clases de activos de riesgo con primas de riesgo asociadas.

La optimización de costes es un aspecto significativo de la filosofía de inversión de Betterment. La compañía aprovecha la tendencia a la baja de las comisiones de los ETFs, revisando trimestralmente todo el universo de ETFs. El proceso de selección considera factores más allá de la proporción de gastos, incluido el error de seguimiento y los costos comerciales, lo que da como resultado carteras de bajo costo para los clientes de Betterment.

La optimización fiscal es otro elemento crucial de la estrategia de Betterment. Grealish explica la importancia de la gestión fiscal y describe tres estrategias efectivas: recolección de pérdidas fiscales, ubicación de activos y clasificación de lotes. La recolección de pérdidas fiscales implica la venta de valores con pérdidas para realizar pérdidas de capital a efectos fiscales, mientras que la ubicación de activos maximiza los rendimientos después de impuestos mediante la asignación estratégica de activos entre cuentas. La clasificación de lotes implica vender primero los lotes con las mayores pérdidas para optimizar los beneficios fiscales.

Grealish reconoce el impacto del comportamiento de los inversores en los resultados de las inversiones. Betterment combate el comportamiento negativo mediante la implementación de valores predeterminados inteligentes, el uso de la automatización y el fomento de la inversión basada en objetivos. La empresa emplea un diseño intencional y análisis de datos para incitar a los usuarios a tomar medidas cuando se desvían de sus objetivos financieros.

En términos de desarrollos futuros, Grealish analiza los usos potenciales de la IA en el espacio fintech. Betterment está explorando aplicaciones de IA en la automatización de tareas financieras como el asesoramiento robótico y la gestión de efectivo. La compañía tiene como objetivo hacer que los servicios financieros que antes estaban limitados a personas e instituciones de alto patrimonio neto sean accesibles a un público más amplio. Sin embargo, la complejidad de individualizar la preparación de impuestos plantea desafíos en esta área.

En general, Adam Grealish brinda información valiosa sobre el enfoque algorítmico de Betterment para la inversión personal, enfatizando las estrategias basadas en objetivos, la optimización de costos, la gestión de impuestos y la mitigación del comportamiento.

  • 00:00:00 Adam Grealish presenta Betterment, que es una plataforma de asesoramiento de inversiones automatizada en línea que utiliza un enfoque basado en objetivos para la gestión de inversiones. Su objetivo es ofrecer altos rendimientos a los clientes a través de estrategias de inversión óptimas. Betterment tiene un negocio directo al cliente, una plataforma de tecnología de marca blanca para asesores financieros y un negocio 401k. El término "roboadvisor" describe con precisión el enfoque de Betterment, ya que brinda asesoramiento financiero digital a través de algoritmos ejecutados por software con una intervención humana mínima.

  • 00:05:00 Adam Grealish, director de Investing for Betterment, explica su enfoque de inversión, que se basa en algoritmos y modelos matemáticos. La plataforma Betterment ofrece una experiencia de gestión de inversiones completamente independiente sin la necesidad de interacción humana, así como acceso a asesores humanos para quienes lo deseen. Según Grealish, los factores clave que determinan los resultados de la inversión son mantener los costos bajos, la optimización fiscal, el comercio inteligente, la asignación de activos y la selección de valores. Sin embargo, Betterment se centra principalmente en los tres primeros, ya que se consideran los más determinantes para lograr los objetivos financieros, mientras que pone menos énfasis en la asignación de activos y la selección de valores. Utilizan la técnica de optimización Black Litterman para crear una cartera globalmente diversificada y lograr el rendimiento óptimo para sus inversores.

  • 00:10:00 En esta sección, Adam Grealish explica cómo ayudan a los inversores a elegir cuánto riesgo asumir en función de objetivos de inversión específicos y horizontes temporales. La aplicación proporciona recomendaciones sobre cuánto riesgo tomar, con proyecciones sobre cómo podría ser con el tiempo. Luego administran las ponderaciones objetivo a través del monitoreo diario, haciéndolo en medio millón de clientes con hasta 800 000 carteras individuales monitoreadas diariamente. El reequilibrio se considera principalmente como una herramienta de gestión de riesgos y se realiza de manera fiscalmente eficiente cuando surgen flujos de efectivo, cuando se pagan dividendos o cuando se deducen comisiones de la cuenta. Grealish analiza un artículo de Bushi (2012) que destaca los beneficios de reequilibrar una cartera con valores no correlacionados a lo largo del tiempo. Finalmente, diferencian los objetivos en función de los perfiles de liquidación y construyen un camino de planeo en función de la longitud del horizonte.

  • 00:15:00 Adam habla sobre cómo funciona su enfoque algorítmico para la inversión personal. Animan a los inversores a mantener su asignación durante mucho tiempo, ajustándola solo una vez al año, para avanzar hacia su asignación objetivo. El equipo ajusta la asignación objetivo de sus clientes mensualmente, lo que permite que los dólares marginales se acerquen más al objetivo de riesgo correcto sin tener que realizar una operación de reequilibrio que conlleva riesgos potenciales. Sus carteras se basan íntegramente en ETF basados en una amplia capitalización de mercado y optimizan su exposición a clases de activos de riesgo con una prima de riesgo asociada. El equipo emplea un algoritmo de reequilibrio basado en disparadores que mide la desviación de una asignación objetivo y, cuando se aleja demasiado, reequilibran y gestionan el riesgo. Por último, Grealish señala que existe una gran desconexión entre las personas que saben mucho sobre finanzas y las que saben mucho sobre finanzas personales.

  • 00:20:00 En esta sección, Adam Grealish analiza la tendencia de reducción de las tarifas de los ETF, lo que ha sido ventajoso para Betterment, ya que es una empresa independiente de asesoría robótica que no está vinculada a ninguna familia de fondos individual. Betterment tiene un proceso de selección de fondos trimestral en el que se revisa todo el universo invertible de ETF, y se clasifican no solo en función de su índice de gastos, sino también de otros factores, como el error de seguimiento y los costos de negociación. El mejoramiento se enfoca en el costo anual total de propiedad o el "puntaje de taco", que está determinado por el costo de mantenimiento, el costo de comercialización y otros factores. El proceso da como resultado una cartera de bajo costo para Betterment.

  • 00:25:00 En esta sección del video, Adam Grealish analiza varios aspectos del enfoque de inversión de Wealthfront. Explica que sus rendimientos esperados se generan a través de la optimización inversa de cap m, y utilizan un motor de simulación de Monte Carlo que opera a nivel de lote de impuestos para probar sus estrategias de impuestos. Grealish también señala que desintermediar la industria de fondos mediante la tenencia de valores individuales es una idea interesante que puede conducir a más oportunidades de recaudación de impuestos y personalización, pero tiene costos operativos asociados. Además, explica cómo Wealthfront sopesa los costos de mantener e intercambiar inversiones para proporcionar una medida precisa de su costo total.

  • 00:30:00 Adam Grealish, director ejecutivo de Betterment, analiza la importancia de gestionar los impuestos en la inversión minorista y describe tres estrategias para una gestión fiscal eficaz: recolección de pérdidas fiscales, ubicación de activos y clasificación de lotes. La recolección de pérdidas fiscales implica la venta de valores con pérdidas para realizar pérdidas de capital a efectos fiscales y la compra de valores correlacionados para mantener la exposición al mercado. La mejora tiene como objetivo maximizar las pérdidas cosechadas mientras se mantienen las asignaciones de riesgo objetivo y se evitan las ventas de lavado, que ocurren cuando un inversionista vende un valor con pérdidas y compra un valor sustancialmente idéntico dentro de los 30 días. Grealish también señala que la gestión fiscal presenta oportunidades para superar al mercado y puede resultar en una evasión fiscal sustancial en ciertas situaciones.

  • 00:35:00 Adam desaconseja volver ciegamente a un valor primario después de 30 días para evitar aumentar su obligación tributaria, ya que podría obtener un dólar en pérdidas a largo plazo pero luego cuatro dólares en ganancias de capital a corto plazo, lo que lleva a un resultado negativo. arbitraje fiscal. También destaca que la tasa impositiva más baja de dividendos calificados solo se activa después de un período de 60 días, y cambiar demasiado rápido puede dañar su eficiencia fiscal. Grealish recomienda elegir un valor secundario con alta correlación con el principal, tarifas comparables y suficiente liquidez para garantizar la eficiencia fiscal. Cuando se trata de cosechar, Grealish sugiere establecer un umbral en el que los beneficios esperados deberían ser mayores que los costos de transacción y los costos de oportunidad, lo que se puede determinar utilizando la teoría de opciones, particularmente si los valores tienen una alta volatilidad. La prueba de espalda de Grealish muestra una compensación anual cercana al 2 por ciento, pero advierte que seguir ciegamente esta estrategia puede no ser siempre óptimo.

  • 00:40:00 En esta sección, Adam Grealish analiza los beneficios de la recolección de pérdidas fiscales y brinda consejos sobre cómo aplicarlo de manera efectiva en una cuenta personal. La recolección de pérdidas fiscales puede ser una forma eficaz de gestionar el riesgo, y los resultados de las pruebas muestran que impulsa el alfa después de impuestos. Sin embargo, los usuarios deben considerar los costos de transacción y el costo de oportunidad de futuras ventas de lavado al aplicar esta estrategia para cuentas personales. La ubicación de activos es otra estrategia que puede maximizar los rendimientos después de impuestos. Al asignar activos entre cuentas para preservar la asignación objetivo y el riesgo de la cartera, los usuarios pueden aumentar sus rendimientos después de impuestos.

  • 00:45:00 Adam Grealish analiza los tratamientos fiscales para diferentes tipos de valores y proporciona un enfoque algorítmico para la inversión personal. Explica cómo optimizar la inversión en tres cuentas moviendo los activos ineficientes a cuentas con ventajas fiscales y los eficientes a cuentas imponibles. Esto implica considerar las tasas de crecimiento, los rendimientos de los dividendos, los impuestos de liquidación y los índices de ingresos por dividendos calificados de los activos y establecer el problema como uno de programación lineal. Este enfoque algorítmico de inversión agrega alrededor de 50 puntos básicos anualmente a una estrategia no optimizada.

  • 00:50:00 En esta sección, Adam Grealish habla sobre la administración de lotes de impuestos y cómo Betterment ayuda a sus usuarios a clasificar todos sus lotes y vender primero las pérdidas más grandes antes de pasar a las ganancias y vender las más pequeñas primero. También destaca la importancia de las pérdidas a efectos fiscales y cómo pueden utilizarse contra las ganancias de capital, cancelarse contra los ingresos o trasladarse. Luego, Grealish analiza el tema de la incertidumbre de la tasa impositiva y cómo Betterment lo aborda a través de su proceso de basura negra al incorporar el rendimiento superior después de impuestos como una vista y especificar un nivel de confianza en torno a él. Luego, realizan una optimización sólida de sus rendimientos posteriores y construyen una cartera óptima a partir de eso mientras revisan sus suposiciones del mercado de capitales y la ubicación estratégica de activos anualmente. Finalmente, explica la mayor asignación de bonos municipales en su cartera imponible debido a su mayor rendimiento esperado después de impuestos.

  • 00:55:00 Adam Grealish analiza el tema del comportamiento y cómo afecta a los inversores minoristas. Explica cómo los inversores tienden a comprar cuando el mercado sube y a vender cuando baja, lo que conduce a un bajo rendimiento y una disminución de la riqueza. Para combatir esto, los asesores robóticos establecen valores predeterminados inteligentes, utilizan la automatización y fomentan la inversión basada en objetivos para promover un mejor comportamiento. Adam también menciona estudios que cuantifican el bajo rendimiento anualizado debido al comportamiento de los inversores, que suele oscilar entre el 1% y el 4%.

  • 01:00:00 Adam analiza el enfoque de Betterment para combatir el mal comportamiento de inversión a través del diseño intencional y el análisis de datos. Señala que alrededor de las tres cuartas partes de sus cuentas no se dedican a la sincronización del mercado, y la empresa supervisa de cerca la actividad de los clientes. Betterment utiliza un diseño de color para indicar cuándo un cliente está fuera del camino para alcanzar su objetivo financiero, lo que lo impulsa a tomar medidas para volver a encarrilarse. Durante tiempos de incertidumbre en el mercado, la empresa confía en su plataforma para probar diferentes mensajes e intervenciones y descubrió que notificar a los clientes sobre las tendencias negativas del mercado generaba alarma y conducía a resultados negativos. En cambio, las intervenciones y los mensajes dentro de la aplicación demostraron ser más efectivos para reducir los resultados negativos y aumentar los depósitos de los clientes.

  • 01:05:00 En esta sección, Adam Grealish, director de inversiones de Betterment, analiza hasta qué punto la inversión algorítmica está motivada por el deseo de acumular activos y si es ética. Señala que el sistema afecta principalmente a las personas que están fuera del objetivo en sus objetivos o al margen de estar en el buen camino, y dice que hay mejores formas de extraer activos si ese fuera el objetivo de la empresa. Otras estrategias que analiza incluyen cambiar los ahorros y depósitos o alterar el plan de metas de uno. Grealish también describe el enfoque de Betterment para mitigar los sesgos de comportamiento, como su función de "vista previa del impacto fiscal" que muestra a los clientes las posibles obligaciones fiscales y ha demostrado ser eficaz para reducir la probabilidad de una toma de decisiones precipitada.

  • 01:10:00 Adam analiza los usos potenciales de la IA en el espacio fintech. Él cree que algunos de los primeros lugares en los que se verá la IA es en la automatización de piezas periféricas de finanzas como el asesoramiento robótico y la gestión de efectivo. Betterment, por ejemplo, está explorando el uso de IA para asignar una cuenta externa a un teletipo de proxy y usar datos de transacciones para asesorar a las personas sobre cuánto efectivo deben tener en su cuenta corriente. Grealish también sugiere que, a largo plazo, Betterment tiene como objetivo poner un asesor financiero en el centro de la vida financiera de todos y hacer que las cosas que solo estaban disponibles para inversores institucionales y de patrimonio neto ultra alto estén ampliamente disponibles, incluida la preparación de impuestos. Sin embargo, individualizar la preparación de impuestos haría que el espacio del problema fuera mucho más complejo.

  • 01:15:00 Adam Grealish de Betterment explica que los bonos municipales específicos del estado no están en la plataforma de Betterment porque no siempre es obvio que estar en el estado es la mejor opción, y es un poco como un elemento fuera del menú. . Si bien la plataforma Betterment le permite vincular cuentas externas para cualquier otra propiedad inmobiliaria y realizar un seguimiento manual de su patrimonio neto, las evaluaciones de riesgo-rendimiento de otros fondos que requieren muchos recursos tampoco están disponibles. Betterment se enfoca en pensar en clases de activos en lugar de excluir una clase de activos por motivos fiscales y es único en el espacio de robo-asesoramiento debido a su estructura como asesor independiente y su empuje en las transacciones diarias de los clientes, convirtiéndose en un asesor financiero de servicio completo. . La empresa ejecuta algunos de sus cálculos de investigación en AWS, aunque todavía no es un gran usuario de AWS o de las API públicas existentes.

  • 01:20:00 En esta sección, Adam Grealish analiza el proceso comercial de Betterment. Si bien consideraron la internalización de los flujos de pedidos para sus clientes, esta opción finalmente no se siguió debido a su clasificación como un lugar de negociación alternativo. En cambio, Betterment tiene su mesa de operaciones, con operaciones ejecutadas a través de Apex, que también las compensa. A los clientes no se les cobran costos de transacción, solo la tarifa plana de la plataforma, lo que hace que el comercio sea poco frecuente. Los ETF de Betterment están compuestos por acciones y bonos y ofrecen ahorros fiscales dentro de los fondos de bonos. Además, Betterment realiza un seguimiento de todos los rendimientos netos de su rendimiento esperado, ya que esto se puede desglosar en rendimientos realizados y esperados.
Adam Grealish: "An Algorithmic Approach to Personal Investing"
Adam Grealish: "An Algorithmic Approach to Personal Investing"
  • 2020.09.17
  • www.youtube.com
In this talk, Adam Grealish of Betterment will explore how technology can be used to improve investor outcomes. Technology and automation can play a signific...
 

Miquel Noguer i Alonso: "Últimos avances en Deep Learning en Finanzas"



Miquel Noguer i Alonso: "Últimos avances en Deep Learning en Finanzas"

En este completo vídeo, Miquel Noguer i Alonso explora el potencial del aprendizaje profundo en el campo de las finanzas, a pesar de las complejidades inherentes y la naturaleza empírica de la industria. El aprendizaje profundo ofrece capacidades valiosas para capturar relaciones no lineales y reconocer patrones recurrentes, particularmente en datos no estructurados y aplicaciones financieras. Sin embargo, también presenta desafíos como el sobreajuste y la efectividad limitada en situaciones no estacionarias. Para hacer frente a estos desafíos, la integración de factores, el análisis de sentimientos y el procesamiento del lenguaje natural pueden proporcionar información valiosa para los administradores de carteras que manejan grandes cantidades de datos. Es importante tener en cuenta que no existe un modelo único para todos, y las redes neuronales profundas no deben reemplazar los modelos de referencia tradicionales. Además, Alonso destaca la importancia de BERT, un modelo de lenguaje de código abierto y altamente eficiente que demuestra una comprensión profunda de los números en los textos financieros, lo que lo hace particularmente valioso para los conjuntos de datos financieros.

A lo largo del video, Alonso comparte ideas importantes y analiza varios aspectos de la utilización de modelos de aprendizaje profundo en finanzas. Explora la transformación de datos financieros en imágenes para el análisis utilizando redes neuronales convolucionales, aprovechando los codificadores automáticos para la compresión de datos no lineales y aplicando redes de memoria para el análisis de series temporales. Se enfatiza la colaboración entre expertos en el dominio y profesionales del aprendizaje automático como un factor crítico para abordar de manera efectiva los problemas relacionados con las finanzas utilizando técnicas de aprendizaje profundo.

Alonso profundiza en los desafíos que se encuentran al trabajar con aprendizaje profundo en finanzas, como la naturaleza dinámica del proceso de generación de datos y la necesidad de desarrollar modelos que puedan adaptarse a estos cambios. Destaca conceptos de la teoría de la información, la complejidad y la compresión de la información para encontrar la representación más concisa. Se analiza el Teorema de Aproximación Universal, enfatizando la capacidad de las redes neuronales profundas para aproximar cualquier función con precisión arbitraria, pero la generalización no está garantizada. El orador recomienda una mayor exploración de los trabajos de investigación sobre la regularización, las dimensiones intrínsecas de las redes neuronales y las redes neuronales sobreparametrizadas.

El orador también aborda la idea de un régimen de interpolación, donde las redes neuronales profundas pueden descubrir clases de funciones más grandes que identifican funciones de interpolación con normas más pequeñas. Discuten los aspectos cualitativos de las redes neuronales profundas, enfatizando la importancia variable de las diferentes capas y su papel en la predicción de series temporales. Sin embargo, se enfatiza que los modelos lineales aún sirven como puntos de referencia, y los resultados de los modelos de aprendizaje profundo deben compararse con ellos.

Alonso proporciona información sobre el rendimiento de los modelos de aprendizaje profundo en finanzas, mostrando los resultados del uso de redes de memoria a corto plazo con múltiples acciones y demostrando su superioridad sobre otras redes neuronales. Se muestra que los modelos de aprendizaje profundo superan a los modelos lineales en la selección de las mejores acciones en el S&P 500, lo que da como resultado mejores índices de información fuera de la muestra. El orador subraya que el aprendizaje profundo siempre funciona bien y puede ser una opción confiable al seleccionar un modelo.

Los factores juegan un papel crucial en los modelos de aprendizaje profundo para las finanzas, lo que permite la exploración de relaciones no lineales con los rendimientos. La utilización de la no linealidad distingue este enfoque de los ejercicios de series temporales puras. El orador también enfatiza la importancia de la selección de parámetros durante el período de entrenamiento y advierte que no se debe asumir que usar más datos siempre conduce a una mayor precisión. Es importante tener en cuenta que estos modelos no incorporan costos ni consideraciones de la vida real, ya que son principalmente para fines de investigación basados en datos históricos.

El orador aclara el enfoque de su documento, destacando que la intención no es afirmar que las redes neuronales profundas son superiores, sino enfatizar la necesidad de que se utilicen junto con los modelos de referencia tradicionales. Se analiza la importancia de capturar relaciones no lineales y comprender los ciclos recurrentes, junto con la necesidad de considerar parámetros como la ventana de aprendizaje. Las redes neuronales profundas pueden proporcionar información única en escenarios específicos al capturar efectos de segundo o tercer orden que los modelos lineales pueden pasar por alto. Sin embargo, se enfatiza que no existe un modelo universal y que las redes neuronales profundas deberían complementar los modelos de referencia existentes en lugar de reemplazarlos.

También se explora la aplicación del procesamiento del lenguaje natural, específicamente el análisis de sentimientos, en finanzas. Dada la gran cantidad de información que se genera en los mercados, las herramientas de big data son esenciales para investigar y analizar espacios de alta dimensión. El aprendizaje automático, en particular el aprendizaje profundo, resulta valioso para hacer frente a estos desafíos. Los modelos de lenguaje se pueden aprovechar para tareas como el análisis de sentimientos, que pueden proporcionar información sobre el impulso del mercado. El raspado de Internet ha demostrado ser un enfoque eficiente para detectar cambios en la información que pueden indicar cambios en el mercado. En general, el procesamiento del lenguaje natural ofrece información valiosa para los administradores de cartera que manejan grandes volúmenes de datos.

En el vídeo, el ponente profundiza en los dos enfoques del análisis de sentimientos en las finanzas. El método tradicional consiste en contar la frecuencia de las palabras positivas y negativas, mientras que el enfoque más avanzado utiliza el aprendizaje profundo y las incrustaciones de palabras para captar el significado contextual y semántico de las palabras. El ponente destaca la eficacia de la representación codificadora bidireccional de los transformadores (BERT), un modelo de lenguaje de última generación que ofrece una representación más precisa y eficiente de las palabras. La capacidad de BERT para comprender números en textos financieros es particularmente crucial para un análisis financiero preciso. Otros aproximadores de funciones como perceptrones multicapa, redes de memoria y covnets también se mencionan como herramientas útiles en finanzas.

Además, el orador analiza el concepto de transformar datos financieros en imágenes y emplear redes neuronales convolucionales para el análisis. Este enfoque resulta especialmente beneficioso para los problemas de aprendizaje no supervisados. Se introduce el uso de codificadores automáticos para la compresión de datos no lineales y redes de memoria para el análisis de series temporales. Las redes de memoria pueden ser adecuadas para analizar datos de series temporales si el entorno es suficientemente estable. Además, el orador aborda el uso de modelos transformadores para el procesamiento del lenguaje en finanzas y brinda información sobre su implementación utilizando TensorFlow.

En cuanto a la implementación de modelos de aprendizaje profundo de código abierto en finanzas, el orador enfatiza que, si bien es posible que se requiera capacitación específica para aplicaciones financieras, es un objetivo alcanzable debido a la abundancia de código fuente abierto disponible. La colaboración entre expertos en el dominio y aprendices automáticos es crucial para resolver problemas relacionados con las finanzas, ya que existen numerosas oportunidades para aprovechar el aprendizaje automático en el campo. El orador señala que, si bien los enfoques de procesamiento de lenguaje natural hechos a mano se utilizan actualmente en finanzas, los modelos de aprendizaje profundo aún no se han adoptado ampliamente en la industria.

El video también profundiza en los métodos tradicionales de control artesanal en las finanzas, donde las personas usan diccionarios para describir entidades como JP Morgan mientras se aseguran de que no haya errores tipográficos. Se analiza la eficacia de varios algoritmos de aprendizaje automático, como las redes de memoria a largo plazo y BERT. BERT se considera el estado del arte en la investigación publicada. También se explora el potencial del aprendizaje automático para inversiones transversales, lo que sugiere el uso de factores o rendimientos para ayudar a las máquinas a interpretar rendimientos o factores planos.

Al abordar la dificultad de encontrar valores óptimos en el aprendizaje profundo, el ponente reconoce que puede ser un problema de NP. Los científicos de datos humanos con experiencia e intuición deben tomar decisiones heurísticas basadas en su experiencia. Se destaca el desafío de comprender e interpretar las redes neuronales profundas, ya que incluso los matemáticos luchan por formular ecuaciones para explicar su desempeño excepcional. El análisis cualitativo se emplea a menudo en tales casos. Sin embargo, con el tiempo y después de trabajar con varios conjuntos de datos, los científicos de datos pueden desarrollar una intuición para seleccionar los parámetros más apropiados para situaciones específicas.

  • 00:00:00 Miguel Noguer i Alonso habla sobre la aplicación del aprendizaje profundo en las finanzas. Señala que el aprendizaje profundo ha tenido éxito en otras áreas, como el reconocimiento de imágenes y los modelos de lenguaje, pero es complicado ver cómo se puede aplicar con éxito en las finanzas debido a la naturaleza empírica y ruidosa de la industria. A pesar de la complejidad, existen interesantes posibilidades para el uso del aprendizaje profundo en datos no estructurados y aplicaciones financieras. El Education Finance Institute está colaborando con universidades y empresas para investigar el uso de la IA en las finanzas.

  • 00:05:00 En esta sección del video, Miquel Noguer i Alonso analiza el potencial del uso de modelos de aprendizaje automático en finanzas y la falta de investigación que se está realizando en esta área. Continúa destacando los diversos campos del aprendizaje automático que se pueden usar en finanzas, incluido el aprendizaje supervisado, no supervisado y de refuerzo. Noguer i Alonso anima a los investigadores a centrarse en construir más herramientas para el aprendizaje no supervisado, ya que actualmente hay poca investigación en esta área. Concluye afirmando que no hay lugar en las finanzas donde el aprendizaje automático no se pueda utilizar para propósitos como predecir pérdidas crediticias y organizar conjuntos de datos.

  • 00:10:00 El ponente presenta el aprendizaje profundo como motor para el aprendizaje imposible, los problemas de regresión y el aprendizaje no supervisado mediante el uso de funciones no lineales. La red neuronal se explica como una función no lineal con una gran cantidad de parámetros, lo que ha provocado advertencias de estadísticos e ingenieros sobre su viabilidad. Sin embargo, los pioneros del aprendizaje profundo encontraron las combinaciones correctas de funciones de activación, número de capas y neuronas que hacen que funcione en contra de las expectativas estadísticas. El orador también analiza las diversas arquitecturas del aprendizaje profundo, como las redes neuronales convolucionales, las redes neuronales recurrentes y los transformadores.

  • 00:15:00 El orador analiza los pros y los contras del aprendizaje profundo en finanzas. En el lado positivo, los modelos de aprendizaje profundo son mejores para capturar la no linealidad y la naturaleza expresiva de los conjuntos de datos, y muestran eficiencia en series temporales multivariadas. También son competitivos con árboles de impulso, una de las mejores técnicas para datos categóricos y numéricos. Sin embargo, las principales desventajas son el sobreajuste debido a la gran cantidad de parámetros en los modelos de aprendizaje profundo y su falta de efectividad en situaciones no estacionarias, lo cual es un gran problema en finanzas, ya que las series temporales siguen cambiando. El ponente señala que los modelos actuales no aportan buenas soluciones a este problema.

  • 00:20:00 Miquel Noguer i Alonso explica los desafíos que enfrenta el aprendizaje profundo en finanzas, particularmente en la naturaleza cambiante del proceso de generación de datos y cómo crear modelos que puedan funcionar dentro de él. Una solución que sugiere proviene de la teoría de la información; la idea de complejidad y comprimir la información al programa más corto posible. También analiza el teorema de aproximación universal y cómo garantiza que las redes profundas pueden aproximar cualquier cosa con precisión arbitraria, pero no garantiza que se generalicen. Alienta a los lectores a leer un artículo de Sun que argumenta que la regularización no es suficiente para la generalización y recomienda artículos sobre las dimensiones intrínsecas de las redes neuronales y las redes neuronales sobreparametrizadas.

  • 00:25:00 En esta sección, el orador habla sobre un nuevo régimen llamado régimen de interpolación donde las redes profundas podrían escribir algunos certificados al tener una gran cantidad de gravedad devuelta, lo que podría conducir al descubrimiento de grandes clases de funciones que encuentran funciones de interpolación con normas más pequeñas. La idea es encontrar cosas más simples con esa cantidad de características. También analizan los aspectos cualitativos de los modelos, por ejemplo, cómo no todas las capas se crean de la misma manera y el papel de las redes neuronales profundas en la predicción de series temporales. Sin embargo, los modelos de referencia para ellos siguen siendo los modelos lineales y necesitan comparar los resultados con los puntos de referencia.

  • 00:30:00 El ponente analiza el rendimiento de los modelos de aprendizaje profundo en finanzas. Demuestran los resultados del uso de redes de memoria a corto plazo con 30 acciones en lugar de solo una, y notan que el error absoluto es menor en comparación con otras redes neuronales. El orador también muestra cómo los modelos de aprendizaje profundo superan a los modelos lineales en la selección de las mejores acciones en el S&P 500, lo que resulta en mejores índices de información fuera de la muestra. En general, se encuentra que el aprendizaje profundo está consistentemente cerca de los mejores modelos y es una buena opción cuando se elige un modelo a ciegas.

  • 00:35:00 El orador discute el uso de factores en modelos de aprendizaje profundo para finanzas. Se utilizan factores como la calidad, el valor y el impulso para investigar las relaciones no lineales con los rendimientos. La diferencia entre este método y un ejercicio de series de tiempo puro es el uso de la no linealidad. El orador también analiza la importancia de los parámetros del período de entrenamiento y señala que usar más datos no significa necesariamente una mayor precisión. El modelo no incluye costos ni consideraciones de la vida real, ya que es puramente para fines de investigación y se basa en datos anteriores.

  • 00:40:00 En esta sección, el orador analiza el documento que están actualizando y aclara que la afirmación en el documento no es que las redes profundas sean mejores, sino que deben ejecutarse junto con los modelos de referencia tradicionales. Además, el orador explica que las redes profundas son útiles para capturar relaciones no lineales y aprender ciclos correctos. Sin embargo, los parámetros, como la ventana en la que aprenden las redes, también deben tenerse en cuenta. Además, las redes profundas pueden decirnos cosas diferentes en algunos regímenes de reparación debido al aprendizaje de efectos de segundo o tercer orden que un modelo lineal puede pasar por alto. El orador también enfatiza que no existe un modelo único para todos y que las redes profundas no deben reemplazar los modelos de referencia tradicionales.

  • 00:45:00 Miguel Noguer i Alonso analiza el uso del procesamiento del lenguaje natural en finanzas, específicamente el análisis de sentimientos. Con la gran cantidad de información que se genera en los mercados, se necesitan herramientas de big data para investigar, y el aprendizaje automático, especialmente el aprendizaje profundo, puede ser útil para manejar espacios de gran dimensión. Los modelos de lenguaje se pueden usar para tareas como el análisis de sentimientos, que puede ser un precursor del impulso en las finanzas. El raspado de Internet también ha demostrado ser una forma eficiente de buscar cambios de información que puedan indicar cambios en el mercado. En general, el procesamiento del lenguaje natural puede proporcionar información útil para los administradores de cartera cuando se trata de grandes cantidades de datos.

  • 00:50:00 En esta sección, el ponente analiza el uso del análisis de sentimientos en las finanzas y las dos formas en que se puede realizar: el método tradicional de contar la frecuencia de palabras positivas y negativas y el método más avanzado de utilizar análisis profundo aprendizaje e incrustaciones de palabras para comprender el contexto y la semántica de las palabras. El modelo más avanzado es la representación de codificador bidireccional a partir de transformadores, que permite una representación más eficiente y precisa de las palabras. Esta tecnología puede ser útil en cosas como la gestión del clima y los problemas de la cadena de suministro.

  • 00:55:00 En esta sección, Miquel Noguer i Alonso analiza los últimos avances en aprendizaje profundo en finanzas con un enfoque en la arquitectura complicada bidireccional, BERT y la importancia de los números en los modelos de lenguaje. BERT es un modelo de lenguaje altamente eficiente y de código abierto que se puede usar para capacitar en conjuntos de datos financieros, lo que puede ahorrar tiempo y esfuerzo humano. Funciona mejor que otros modelos y es particularmente bueno para comprender números en textos financieros, lo cual es crucial para un análisis preciso. Los perceptrones multicapa, redes de memoria y covnets son otros aproximadores de funciones útiles en finanzas.

  • 01:00:00 Miguel Noguer i Alonso comenta la idea de transformar datos financieros en imágenes y utilizar redes neuronales convolucionales para analizarlas, lo que puede ser especialmente útil para problemas de aprendizaje no supervisado. También presenta el concepto de codificadores automáticos, que se pueden utilizar para la compresión no lineal de datos, y las redes de memoria, que pueden ser adecuadas para el análisis de series temporales si el entorno es lo suficientemente estable. Finalmente, Noguer i Alonso menciona el uso de modelos transformadores para el procesamiento del lenguaje en finanzas y cómo implementar estos modelos en TensorFlow.

  • 01:05:00 En esta sección del vídeo, Miquel Noguer i Alonso, Director de Innovación Financiera y Profesor Titular de Finanzas de ESADE Business School, analiza la viabilidad de implementar modelos open source de deep learning en finanzas. Explica que hay mucho código fuente abierto disponible y, si bien puede requerir capacitación específica para aplicaciones financieras, no es un objetivo inalcanzable. Alonso también enfatiza la importancia de la colaboración entre expertos en dominios y aprendices automáticos para resolver problemas relacionados con las finanzas, ya que hay muchas oportunidades para el aprendizaje automático en finanzas. Además, señala que si bien se utilizan enfoques artesanales de PNL en finanzas, los modelos de aprendizaje profundo aún no se adoptan ampliamente en esta industria.

  • 01:10:00 Los oradores discuten los métodos tradicionales de control artesanal en finanzas, que involucran a personas que usan diccionarios para describir cosas como JP Morgan y se aseguran de que no haya errores tipográficos. Continúan discutiendo el uso del aprendizaje automático en las finanzas y la efectividad de varios algoritmos, como las redes de memoria de tiro largo corto y BERT, que sugieren que es actualmente el estado del arte en la investigación publicada. Los oradores también discuten el potencial del uso del aprendizaje automático para inversiones transversales y sugieren el uso de factores o rendimientos para ayudar a la máquina a dar sentido a rendimientos o factores planos.

  • 01:15:00 En esta sección, Noguer y Alonso analizan la dificultad de encontrar valores óptimos en el aprendizaje profundo y cómo puede ser un problema de NP, que requiere la habilidad y la intuición de un científico de datos humano para tomar decisiones heurísticas basadas en la experiencia y la intuición. . Destacan los desafíos en la comprensión e interpretación de redes profundas, ya que incluso los matemáticos luchan por crear ecuaciones para comprender por qué funciona tan bien y, en cambio, deben recurrir al análisis cualitativo. A pesar de estos desafíos, después de trabajar con varios conjuntos de datos, los científicos de datos pueden desarrollar una intuición sobre los mejores parámetros para usar en una situación determinada.
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
  • 2020.03.19
  • www.youtube.com
Title of Seminar: "Latest Developments in Deep Learning in Finance"Date of Seminar: 9/24/19Speaker Bio: Miquel Noguer i Alonso (Artificial Intelligence Finan...
 

Gordon Ritter: "Aprendizaje por refuerzo y descubrimiento de oportunidades de arbitraje"



Gordon Ritter: "Aprendizaje por refuerzo y descubrimiento de oportunidades de arbitraje"

En este video, Gordon Ritter explora la aplicación del aprendizaje por refuerzo en el contexto de los mercados financieros, centrándose específicamente en descubrir oportunidades de arbitraje dentro del comercio de derivados. Enfatiza la importancia de la planificación y la estrategia complejas de varios períodos cuando se enfrenta a la incertidumbre. Ritter demuestra el uso de funciones de valor para guiar la búsqueda de políticas óptimas y propone una función de recompensa que combina el incremento de un solo período con una constante multiplicada por el cuadrado de la desviación de la media.

Ritter analiza el proceso de creación de una simulación que incluye una oportunidad de arbitraje sin indicar explícitamente a la máquina dónde encontrarla. Destaca el uso de simulaciones estocásticas para modelar los mercados financieros y sugiere que con suficientes datos, un agente capacitado a través del aprendizaje por refuerzo puede identificar el arbitraje del mercado. Sin embargo, reconoce las limitaciones del aprendizaje por refuerzo, como el sobreajuste y los desafíos en el manejo de escenarios imprevistos. Se proponen más pruebas, como la exploración de estrategias comerciales de neutralidad gamma, para ampliar las capacidades de los agentes capacitados.

El video incluye un análisis del desempeño de un agente de aprendizaje por refuerzo en comparación con un agente de referencia en la cobertura de derivados. El agente capacitado demuestra ahorros de costos significativos mientras mantiene un rango similar de volatilidad realizada, mostrando su capacidad para hacer concesiones entre costo y riesgo. Ritter analiza la relevancia de las funciones de valor en el aprendizaje de refuerzo para el comercio de derivados, ya que los precios de los derivados en sí mismos pueden verse como una forma de función de valor.

Ritter también destaca la importancia de construir vectores de estado y espacios de acción apropiados en el aprendizaje por refuerzo. Incluir información relevante en el vector estatal y definir las acciones adecuadas es fundamental para una toma de decisiones eficaz. Presenta el uso de los procesos de Ornstein y Limbic como un medio para modelar la dinámica de reversión a la media, que potencialmente puede conducir a oportunidades de arbitraje.

Además, el video analiza los desafíos de usar rendimientos a corto plazo para oportunidades comerciales y las limitaciones de los espacios de estados finitos. Ritter sugiere emplear espacios de estado continuos y métodos de aproximación de funciones, como árboles modelo y redes neuronales, para abordar estos desafíos y mejorar la estimación de las funciones de valor.

Finalmente, Ritter reconoce que, si bien el aprendizaje por refuerzo puede ser una herramienta valiosa para descubrir oportunidades de arbitraje, no es un enfoque garantizado en el comercio de la vida real. Concluye destacando el potencial del aprendizaje por refuerzo para descubrir operaciones rentables a través de sistemas estocásticos, pero advierte que no se debe esperar que encuentre oportunidades de arbitraje si no existen en el mercado. También se reconocen las limitaciones del aprendizaje por refuerzo, incluido el sobreajuste y su incapacidad para manejar escenarios imprevistos.

  • 00:00:00 En esta sección, Gordon Ritter habla sobre el aprendizaje a través de la experiencia para optimizar las recompensas a lo largo del tiempo en un entorno incierto. Brinda ejemplos de cómo los robots pueden navegar a través de una habitación y cómo las gacelas aprenden a caminar enviando señales a los músculos de sus piernas. También menciona que el mejor jugador de Go del mundo ahora es un agente entrenado con métodos de aprendizaje por refuerzo, que es el tema central de su charla. Ritter enfatiza la importancia de la planificación y la estrategia complejas de varios períodos en presencia de incertidumbre, y cómo se puede aplicar el aprendizaje por refuerzo en finanzas para descubrir oportunidades de arbitraje.

  • 00:05:00 Gordon Ritter explica el concepto de aprendizaje por refuerzo, que es el proceso de un agente que interactúa con el entorno y toma medidas para optimizar una señal de recompensa. El agente observa el estado del entorno y determina si sus acciones resultaron en una recompensa positiva o negativa. El aprendizaje por refuerzo implica el uso de funciones de valor para estructurar la búsqueda de políticas óptimas para maximizar la expectativa de recompensa a largo plazo. Ritter señala que la idea de las funciones de valor es familiar para quienes tienen experiencia en finanzas matemáticas.

  • 00:10:00 En esta sección del video, Gordon Ritter analiza el concepto de aprendizaje por refuerzo, específicamente la ecuación de Hamilton-Jacobi Bellman que se utiliza para encontrar la función de valor de una política óptima. Sin embargo, señala que en escenarios del mundo real, a veces no es factible resolver explícitamente la ecuación. Luego, Ritter presenta la función de valor de acción, que se usa para encontrar la ganancia esperada a largo plazo de tomar una acción particular en un estado dado y seguir una política a partir de entonces. El objetivo del aprendizaje por refuerzo es encontrar la política óptima encontrando la función de valor de señal o acción que le corresponde. Luego, Ritter plantea la pregunta de si la inteligencia artificial puede descubrir una estrategia comercial dinámica óptima en un escenario realista, teniendo en cuenta los costos de negociación, como el diferencial de oferta y oferta y las comisiones. Sugiere que si hubiera un arbitraje en el mercado, un agente producido por el aprendizaje por refuerzo podría encontrarlo con suficientes datos.

  • 00:15:00 Gordon Ritter analiza el uso del aprendizaje por refuerzo para descubrir oportunidades de arbitraje en los mercados financieros. Ritter argumenta que, a diferencia de los métodos tradicionales que se basan en precios constantes sin arbitraje, el aprendizaje por refuerzo se puede utilizar para averiguar si hay oportunidades de arbitraje en un sistema dinámico determinado. Este enfoque se puede usar para entrenar el algoritmo para encontrar estrategias con índices de Sharpe altos, que se pueden usar para identificar el arbitraje estadístico, que no es un arbitraje puro sino una buena estrategia comercial. Ritter afirma que este enfoque es similar a AlphaGo Zero, que aprendió a jugar Go sin ninguna guía humana y venció a los campeones humanos.

  • 00:20:00 Gordon Ritter explica las suposiciones utilizadas cuando se maximiza la utilidad esperada de la riqueza y cómo es matemáticamente equivalente a maximizar la forma cuadrática de la varianza media. Aclara que una función cuadrática no puede ser una función de utilidad y explica la señal de recompensa que utiliza para entrenar agentes racionales para que actúen como inversores de von Neumann Morgenstern. Sugiere combinar el incremento en un solo período menos una constante por el cuadrado de alrededor de la media para la función de recompensa y aconseja elegir qué poner en el estado, enfatizando la importancia de incluir información relevante que ayude al agente a tomar buenas decisiones.

  • 00:25:00 Gordon Ritter habla sobre cómo construir un vector de estado y un espacio de acción en el aprendizaje por refuerzo. Explica que para que un agente aprenda a usar una señal para tomar una decisión comercial, esa señal debe incluirse en el vector de estado. Además, el espacio de acción debe incluir elegir qué estrategia de ejecución usar, elegir un parámetro en un algoritmo para cambiar su comportamiento o decidir si cruzar el diferencial o unirse a una cola en el lado cercano del libro de órdenes. Ritter también brinda un ejemplo de cómo los procesos de Ornstein y Limbic se pueden usar en finanzas para modelar la dinámica de reversión media, lo que podría conducir a una oportunidad de arbitraje.

  • 00:30:00 En esta sección, Gordon Ritter analiza la construcción de una simulación estocástica que tiene al menos un arbitraje aproximado como arbitraje estadístico, aunque no es una ganancia garantizada. Él enfatiza que el agente tiene que resolver todo jugando y perdiendo algunas veces. La simulación tiene un costo de distribución y un costo de impacto basado en una función de impacto de precio lineal y, a veces, le gusta jugar con un multiplicador frente al costo total. Él dice que el vector de estado puede ser bastante simple, y el estado solo contiene lo que tiene el agente y el precio, que contiene la señal. Finalmente, señala que esto es solo una prueba de concepto, ya que no se garantiza que funcione en el comercio de la vida real.

  • 00:35:00 Gordon Ritter analiza el proceso de creación de una simulación que tiene una oportunidad de arbitraje sin decirle explícitamente a la máquina dónde buscarla. Explica que funciona aprendiendo una función de valor y mediante un método clásico llamado Q-learning. Sin embargo, admite que no le gusta especialmente el modelo de la función Q porque tiene que aprender cada elemento de la matriz de forma independiente sin continuidad. Ritter también presenta un gráfico de la función de valor como función del precio de varias acciones, mostrando la aparición de una zona de no comercio alrededor del precio de equilibrio.

  • 00:40:00 En esta sección, Gordon Ritter analiza las limitaciones del uso de rendimientos a corto plazo para oportunidades comerciales y los desafíos que surgen al usar un espacio de estado finito. Sugiere usar espacios de estado continuos y métodos de aproximación de funciones, como árboles modelo, para estimar la función de valor de Bellman Q y encontrar la mejor función desconocida que se ajuste a los datos de entrenamiento. Este método permite una forma más eficiente y efectiva de aproximar la función de valor y encontrar oportunidades comerciales.

  • 00:45:00 Gordon Ritter analiza el uso de técnicas estadísticas de aprendizaje automático, como aproximadores de funciones, para entrenar agentes de aprendizaje por refuerzo para aproximar recompensas en forma de recompensas a corto y largo plazo. Mediante el uso de un mejor aproximador de funciones, como una red neuronal, la función de valor de Bellmen se puede aproximar con mayor precisión y obtener una función continua, lo que permite una mejor comprensión de las acciones óptimas. Luego, Ritter aplica estas técnicas al ejemplo de la cobertura de derivados, donde a los bancos les gustaría neutralizar los riesgos en las posiciones sin deshacerse de los derivados en el mercado. El objetivo es utilizar agentes de aprendizaje por refuerzo que puedan negociar de manera óptima una canasta de derivados basados en estrategias de replicación dinámica, lo que permite la cobertura automática y reduce los costos de los impactos en el mercado.

  • 00:50:00 En esta sección, Gordon Ritter analiza las variables de estado que deben existir, como mínimo, en un mercado de opciones europeo para permitir una estrategia de cartera replicante dinámica. Afirma que las variables de estado que entrarían en el cálculo del delta en un mundo tipo Black-Scholes son el precio subyacente y el tiempo hasta el vencimiento, siendo el precio de ejercicio de la opción parte de la definición de lo que es la opción. Además, menciona que el estado no necesita contener las opciones griegas, y se espera que el agente aprenda esas funciones no lineales por sí mismo. Concluye diciendo que la máquina solo puede aprender por experiencia dónde generar un gran conjunto de experiencias a través de la simulación.

  • 00:55:00 Gordon Ritter analiza el resultado de su agente de aprendizaje por refuerzo que cambia el costo por el volumen y lo compara con un agente de referencia que usa cobertura Delta. El agente capacitado muestra un seguimiento más fluido de la posición de la cobertura de Delta, mientras que el agente de referencia muestra un comercio excesivo y costos más altos debido a la cobertura de Delta. El agente capacitado ha aprendido a hacer un balance entre costo y riesgo, y Ritter señala que es aceptable aceptar cierta volatilidad por un gran ahorro de costos. Aunque el mercado se simuló con altos costos comerciales, el agente capacitado aún se desempeñó mejor que el agente de referencia.

  • 01:00:00 En esta sección, el ponente presenta histogramas de simulaciones para comparar el desempeño del agente Delta y el método de aprendizaje por refuerzo. El agente Delta muestra un volumen realizado altamente predecible, pero el agente capacitado muestra ahorros de costos significativos mientras mantiene un rango similar de volumen realizado. El orador sugiere más pruebas, como buscar estrategias comerciales que logren la neutralidad gamma, que potencialmente podría ser descubierta por el agente. El orador concluye que el uso de métodos basados en funciones de valor, como se ve en el aprendizaje por refuerzo, se cruza bien con el campo del comercio de derivados, ya que los precios de los derivados en sí mismos son una forma de función de valor.

  • 01:05:00 Gordon Ritter explica que el aprendizaje por refuerzo se puede utilizar para descubrir oportunidades de arbitraje entrenando un sistema estocástico que puede encontrar operaciones rentables. Sin embargo, si el sistema no encuentra ninguna oportunidad después de millones o miles de millones de simulaciones, puede indicar que el mercado no admite arbitraje. También analiza las limitaciones del aprendizaje por refuerzo, incluido el sobreajuste y la incapacidad de manejar intercambios infinitos y escenarios imprevistos, como fallas repentinas.
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
  • 2019.05.30
  • www.youtube.com
Seminar Date: March 20, 2019Info: Reinforcement learning is a way of training a machine to find an optimal policy for a stochastic optimal control system, ...
 

Marcos López de Prado: "Las 7 razones por las que la mayoría de los fondos de Machine Learning fracasan"



Marcos López de Prado: "Las 7 razones por las que la mayoría de los fondos de Machine Learning fracasan"

Marcos López de Prado realizó una presentación completa que describió las razones detrás del fracaso de la mayoría de los fondos de aprendizaje automático en la industria financiera. Hizo hincapié en la importancia de varios factores clave que contribuyen al éxito en este ámbito.

Uno de los principales factores destacados por de Prado fue la ausencia de una teoría bien formulada sobre los fondos discrecionales. Señaló que muchas conversaciones de inversión carecen de un enfoque constructivo y abstracto debido a la falta de una base teórica sólida. Sin una teoría que guíe la toma de decisiones, los fondos discrecionales luchan por interactuar con otros y probar sus ideas, lo que resulta en malas decisiones y posibles pérdidas.

De Prado también discutió los efectos perjudiciales de trabajar en silos aislados dentro de los fondos de aprendizaje automático. Hizo hincapié en que la colaboración y la comunicación son esenciales para el éxito, y advirtió contra la contratación de numerosos doctores y la segregación en tareas separadas. En cambio, abogó por un enfoque basado en equipos en el que los especialistas trabajen de forma independiente pero posean conocimiento de la experiencia de los demás, lo que lleva a mejores estrategias y resultados.

La especialización dentro del equipo fue otro aspecto crucial destacado por de Prado. Destacó la importancia de reunir un grupo de especialistas capaces de manejar sistemas y tareas complejas. Estos expertos deben poseer habilidades independientes al mismo tiempo que comprenden la estrategia general y son conscientes de los campos de especialización de sus colegas. Este paradigma de metaestrategia es valioso no solo para desarrollar estrategias efectivas, sino también para tomar decisiones informadas en situaciones inciertas, incluida la contratación, la supervisión de inversiones y la definición de criterios de finalización.

El manejo adecuado de los datos financieros fue otro factor clave discutido por de Prado. Hizo hincapié en la necesidad de lograr la estacionariedad en los datos preservando la información valiosa. Sugirió diferenciar los datos por fracción para retener la información de la memoria de observaciones anteriores, lo que permite predicciones críticas en puntos específicos. Además, aconsejó usar un umbral específico para lograr una correlación casi perfecta entre las series estacionarias y originales sin usar demasiada memoria. De Prado advirtió contra el uso de rendimientos en los casos en que no hay contratos de futuros líquidos, y recomendó el uso de una sola observación en la mayoría de los escenarios.

De Prado también abordó la frecuencia de muestreo y el etiquetado apropiado de los datos. Propuso basar la frecuencia de muestreo en la llegada de la información del mercado en lugar de depender de métodos convencionales como observaciones diarias o minuciosas. Mediante el uso de técnicas como barras de dólar que muestrean en función del volumen de transacciones, se puede garantizar que se incluyan cantidades iguales de información en la muestra. El etiquetado adecuado de las observaciones, como el uso del método Touch Barrier Labeling, permite el desarrollo de estrategias conscientes del riesgo, teniendo en cuenta la dinámica de los precios y la posibilidad de ser detenido.

El concepto de metaaprendizaje, en el que un modelo de aprendizaje automático predice la precisión de las predicciones de otro modelo, se discutió como un medio para lograr precisión y recuperación. Al componer dos modelos separados, uno puede equilibrar la compensación entre precisión y recuperación utilizando la media armónica. De Prado recomendó emplear diferentes algoritmos de aprendizaje automático para distintas tareas para optimizar el rendimiento.

De Prado destacó los desafíos de aplicar el aprendizaje automático en las finanzas, enfatizando la necesidad de que los expertos humanos filtren los datos antes de usar algoritmos de aprendizaje automático. Los datos financieros son intrínsecamente confusos y no iid, lo que dificulta vincular observaciones específicas con activos. Además, los cambios constantes en los mercados financieros debido a las regulaciones y leyes requieren un enfoque cuidadoso y matizado para implementar algoritmos de aprendizaje automático. Simplemente conectar datos financieros en un modelo de aprendizaje automático no es suficiente para tener éxito en las finanzas.

Otro aspecto importante de la presentación de De Prado fue abordar los problemas de la no singularidad y el sobreajuste. Propuso una metodología para determinar la singularidad de las observaciones, recomendando la eliminación de las observaciones que contienen información más antigua que la que se comparte con el conjunto de prueba, un proceso conocido como "depuración". Esto ayuda a crear modelos de aprendizaje automático más precisos al alinearse con los supuestos de las técnicas de validación cruzada. De Prado también advirtió sobre los peligros del sobreajuste, y enfatizó que las estrategias de pruebas retrospectivas repetidas pueden generar falsos positivos y disminuir la utilidad con el tiempo. Tener en cuenta la cantidad de ensayos involucrados en el descubrimiento de estrategias es crucial para evitar el sobreajuste y los falsos positivos. De Prado aconsejó establecer un umbral alto para el desempeño de las estrategias para mitigar los riesgos asociados con el sobreajuste.

De Prado introdujo el concepto de "fresa desinflada", que ilustra que muchos fondos de cobertura exhiben una asimetría negativa y un exceso de curtosis positivo, incluso si los administradores de fondos no apuntaron intencionalmente a estas características. Esto se debe principalmente a que los administradores de fondos se evalúan en función del índice de Sharpe, y estas propiedades estadísticas pueden inflar el índice. De Prado enfatizó la importancia de considerar el tamaño de la muestra y la cantidad de ensayos involucrados en la producción de un descubrimiento al analizar los retornos. Advirtió en contra de invertir en estrategias con una baja probabilidad de lograr un verdadero índice de Sharpe mayor que cero.

De Prado subrayó el logro de un equilibrio entre el ajuste del modelo y el sobreajuste. Aconsejó no esforzarse por lograr un ajuste perfecto, ya que puede generar un exceso de confianza y un mayor riesgo. En cambio, recomendó encontrar una manera de preservar recuerdos importantes mientras se aplican modelos estadísticos de manera efectiva. De Prado también advirtió contra el uso de modelos demasiado complicados, ya que pueden dificultar la alimentación de datos y la polinización cruzada, lo que impide la eficacia general de los algoritmos de aprendizaje automático.

De Prado abordó el fenómeno de la industria donde se prefieren ciertos rasgos o métricas, lo que lleva a una convergencia de estrategias. Comparándolo con la cría de perros, donde la preferencia humana y la estética dan forma a ciertos rasgos, explicó cómo el uso de métricas específicas, como la combinación de la relación de Sharpe y la asimetría negativa, se ha vuelto favorecida en los fondos de cobertura, incluso si no fue inicialmente apuntado Abordar este fenómeno resulta desafiante, ya que ocurre sin ningún evento desencadenante específico.

Además, de Prado enfatizó la importancia de utilizar datos de precios recientes al hacer pronósticos, ya que tienen una mayor relevancia para el futuro inmediato. Recomendó emplear el decaimiento de peso exponencial para determinar la longitud de la muestra al usar todos los datos disponibles. Además, destacó la importancia de controlar la cantidad de pruebas y evitar entornos de trabajo aislados como trampas comunes que conducen al fracaso de los fondos de aprendizaje automático. Señaló que las finanzas difieren de otros campos en los que el aprendizaje automático ha logrado avances significativos, y la contratación de estadísticos puede no ser siempre el enfoque más efectivo para desarrollar algoritmos comerciales exitosos.

En resumen, la presentación de Marcos López de Prado arrojó luz sobre las razones por las que la mayoría de los fondos de aprendizaje automático fracasan en la industria financiera. Hizo hincapié en la necesidad de una teoría bien formulada, colaboración en equipo, especialización, manejo y diferenciación adecuados de datos financieros, muestreo y etiquetado apropiados, abordando desafíos como la falta de unicidad y el sobreajuste, e incorporando la experiencia humana en la implementación de algoritmos de aprendizaje automático. Al comprender estos factores y adoptar un enfoque cuidadoso y matizado, los profesionales pueden aumentar la probabilidad de éxito en el dinámico y complejo mundo de las finanzas.

  • 00:00:00 Marcos López de Prado analiza cómo la falta de una teoría bien formulada sobre los fondos discrecionales impide que las personas tengan una conversación verdaderamente constructiva y abstracta sobre inversiones. Cuando asiste a conferencias de inversión, encuentra que la mayoría de las conversaciones son anecdóticas y no se discute ninguna teoría real. Como resultado, los fondos discrecionales pueden verse afectados por la incapacidad de interactuar con otros y probar teorías. Esta falta de una teoría bien formulada puede conducir a una mala toma de decisiones y, finalmente, a la pérdida de negocios.

  • 00:05:00 En esta sección, Marcos López de Prado explica por qué fallan la mayoría de los fondos de aprendizaje automático, citando el problema de trabajar en silos como un factor importante. Explica que es imposible contratar a 50 doctores y ponerlos a trabajar juntos en silos, cada uno trabajando en las mismas tareas repetidamente, sin ningún tipo de colaboración o comunicación. Esto a menudo conduce a que se intenten múltiples estrategias, lo que resulta en descubrimientos defectuosos, implementaciones fallidas y, finalmente, el cierre del fondo. López de Prado afirma que el desarrollo de estrategias requiere un esfuerzo de equipo y se necesitan muchas estrategias para lograr el éxito.

  • 00:10:00 Marcos López de Prado destaca la importancia de la especialización dentro de un grupo como factor clave para el éxito en la implementación del aprendizaje automático en las finanzas. Argumenta que crear un equipo de especialistas es esencial para construir una infraestructura de alto rendimiento capaz de manejar sistemas complejos como procesos industriales o estrategias de aprendizaje automático. Los expertos individuales deben poder trabajar de forma independiente, pero aun así, estar informados sobre todo el plan de juego y ser conscientes de los campos de especialización de cada uno y de las consultas y problemas relevantes para ellos. Este paradigma de metaestrategia no solo es útil para desarrollar estrategias, sino también para tomar decisiones bajo incertidumbre, incluida la contratación, la supervisión de inversiones y los criterios de detención de estrategias.

  • 00:15:00 En esta sección, Marcos López de Prado enfatiza la importancia de manejar adecuadamente los datos financieros para lograr la estacionariedad y preservar la información más valiosa. La diferenciación de datos tiene un costo, ya que borra información valiosa de la señal, por lo que es imposible predecir nada. Por lo tanto, sugiere diferenciar los datos por fracción para preservar cierta información de la memoria sobre observaciones anteriores que permita discernir si una serie se encuentra en un punto crítico para hacer una predicción. Una combinación de datos diferenciadores y estacionarios proporciona información útil para el análisis clásico.

  • 00:20:00 El disertante discute la creación de series estacionarias y cómo lograrlo. Usando un umbral específico, es posible lograr una serie estacionaria que está casi perfectamente correlacionada con la serie original, sin usar demasiada memoria. Si la correlación con la serie original es prácticamente nula, de nada sirve lograr la estacionariedad. Además, el ponente observa que no existen casos de futuro líquido en los que se justifique el uso de rendimientos, y desaconseja su uso incluso en datos diarios. Él sugiere que usar una sola observación sería suficiente en la mayoría de los casos.

  • 00:25:00 El orador discute la importancia de la frecuencia de muestreo y sugiere que debería basarse en la cantidad de información que llega al mercado, en lugar de usar métodos canónicos como observaciones diarias o de un minuto. Da un ejemplo del uso de barras de dólar, cuya muestra se basa en la cantidad de transacciones, para garantizar que la muestra incluya cantidades iguales de información, en lugar de solo cantidades iguales de tiempo o precio. El ponente también destaca la importancia de tener en cuenta los precios a la hora de muestrear, ya que proporciona información crítica que afecta a la actividad del mercado.

  • 00:30:00 Marcos López de Prado analiza la importancia de muestrear y etiquetar correctamente los datos en finanzas. Explica que es crucial tomar más muestras cuando llega mucha información al mercado porque contienen más información. Sugiere usar el método de etiquetado de barrera táctil para etiquetar las observaciones correctamente teniendo en cuenta lo que sucede con el precio y cómo alcanzó ese resultado en particular. Al hacerlo, permite desarrollar una estrategia que tenga en cuenta los niveles de riesgo, lo cual es importante porque la mayoría de las personas necesitan seguir los niveles de riesgo y deben considerar la posibilidad de ser detenidos.

  • 00:35:00 Marcos López de Prado analiza el concepto de metaaprendizaje, donde se utiliza un modelo de aprendizaje automático para predecir si la predicción de otro modelo de aprendizaje automático es correcta. Explica la importancia de componer las dos decisiones en dos modelos diferentes y cómo es útil para lograr precisión y recuperación en los algoritmos de aprendizaje automático. López de Prado también introduce el concepto de media armónica, que se usa para equilibrar el equilibrio entre precisión y recuperación, y sugiere usar diferentes algoritmos de aprendizaje automático para encargarse de dos tareas muy diferentes.

  • 00:40:00 En esta sección, Marcos López de Prado explica los desafíos de usar el aprendizaje automático en finanzas. Él enfatiza la importancia de que expertos humanos filtren los datos antes de usar algoritmos de aprendizaje automático, ya que los datos financieros son confusos y no son iid, lo que significa que no es fácil vincular una observación particular a un paciente en particular o, en este caso, un activo en particular. . Además, los mercados financieros cambian constantemente debido a nuevas regulaciones y leyes, lo que puede afectar significativamente el rendimiento de un modelo de aprendizaje automático. Por lo tanto, el uso del aprendizaje automático en finanzas requiere un enfoque cuidadoso y matizado, y no puede implementarse simplemente conectando datos financieros en un algoritmo de aprendizaje automático.

  • 00:45:00 Marcos López de Prado discute el tema de la no unicidad de las observaciones y propone una metodología para abordarlo. Sugiere identificar la cantidad de superposición en cada observación y determinar su singularidad para derivar una solución. Como las técnicas de validación cruzada asumen que las observaciones son independientes y están distribuidas de manera idéntica, también recomienda identificar qué observaciones deben eliminarse del conjunto de entrenamiento para evitar la suposición de IID. Este proceso, llamado "depuración", elimina las observaciones que contienen información anterior a la que se comparte con el conjunto de prueba, lo que da como resultado modelos de aprendizaje automático más precisos en finanzas.

  • 00:50:00 En esta sección, Marcos López de Prado analiza la séptima razón por la cual fallan la mayoría de los fondos de aprendizaje automático, que es el sobreajuste. Él explica que incluso si el índice de Sharpe de una estrategia es cero, al realizar pruebas retrospectivas repetidas de la estrategia, uno puede eventualmente encontrar una estrategia sorprendente en el papel. Sin embargo, las pruebas retroactivas repetidas pueden dar lugar a falsos positivos y se vuelven menos útiles con el tiempo. Para evitar el sobreajuste y los falsos positivos, uno debe ser inteligente y practicar teniendo en cuenta la cantidad de ensayos involucrados en su descubrimiento. Cuanto más practique, mayor será el umbral que debe exigir para la práctica.

  • 00:55:00 Marcos López de Prado explica el concepto de la fresa desinflada, que es la idea de que la mayoría de los fondos de cobertura tienen un sesgo negativo y un exceso de curtosis positivo, a pesar de que los administradores de fondos no apuntan intencionalmente a estos momentos. Esto se debe a que los gestores de fondos se evalúan en función del índice de Sharpe y, estadísticamente, la asimetría negativa y el exceso de curtosis positivo pueden inflar este índice. De Prado destaca la importancia de considerar el tamaño de la muestra y la cantidad de ensayos involucrados en la producción de un descubrimiento al analizar los rendimientos, y advierte contra invertir en una estrategia que tiene una baja probabilidad de tener un verdadero índice de Sharpe mayor que cero.

  • 01:00:00 Marcos López de Prado enfatiza la importancia de equilibrar el compromiso entre ajustar su modelo a los datos y evitar el sobreajuste. Sugiere no centrarse demasiado en lograr un ajuste perfecto porque puede generar un exceso de confianza y un mayor riesgo. En su lugar, recomienda encontrar una manera de preservar los recuerdos sin dejar de poder comprar y aplicar modelos estadísticos de manera efectiva. López de Prado también señala que el uso de modelos demasiado complicados puede dificultar la polinización cruzada y la alimentación de datos.

  • 01:05:00 Marcos López de Prado explica cómo ciertas características o métricas pueden convertirse en las preferidas en fondos de aprendizaje automático y fondos de cobertura, lo que lleva a una convergencia en la industria. Utilizando el ejemplo de los perros reproductores, en los que se prefieren ciertos rasgos debido a la preferencia y la estética humana, compara este fenómeno con el uso de la relación comercial de Sharpe y la asimetría negativa, que se ha convertido en la combinación preferida de los fondos de cobertura, aunque inicialmente no lo era. apuntado Señala que abordar este fenómeno es un desafío, ya que sucede sin que ocurra un evento en particular.

  • 01:10:00 En esta sección, Marcos López de Prado analiza la importancia de utilizar datos de precios recientes al hacer pronósticos, ya que son más relevantes para el futuro inmediato. Sugiere usar todos los datos disponibles con una caída exponencial en la ponderación para decidir la longitud de la muestra. López de Prado también enfatiza la necesidad de controlar la cantidad de ensayos y evitar trabajar en silos, ya que estas son las razones comunes por las que los fondos de aprendizaje automático fallan. Además, destaca que las finanzas son diferentes de otros campos en los que el aprendizaje automático ha logrado avances significativos, y la contratación de estadísticos no siempre es el mejor enfoque para desarrollar un algoritmo comercial exitoso.
 

Irene Aldridge: "Riesgo en tiempo real en la optimización de cartera a largo plazo"



Irene Aldridge: "Riesgo en tiempo real en la optimización de cartera a largo plazo"

Irene Aldridge, presidenta y directora general de Able Alpha Trading, brinda una discusión integral sobre el impacto del comercio de alta frecuencia (HFT) en los administradores de cartera a largo plazo y los cambios sistémicos en el mercado que afectan a toda la industria. Explora la creciente automatización en las finanzas, impulsada por los avances en big data y aprendizaje automático, y sus implicaciones para la optimización de la cartera. Además, Aldridge profundiza en los desafíos y oportunidades que presentan los datos de volumen intradía y propone un enfoque paso a paso que integra la identificación de riesgos en tiempo real utilizando big data. Aboga por una estrategia de optimización de cartera más matizada que incorpore factores microestructurales y sugiere el uso de factores como medida defensiva. Aldridge también aborda el ciclo de vida de tres años de las estrategias cuantitativas, el potencial de la realidad virtual y la automatización en el análisis de datos y la aplicación de una matriz informática en la optimización de carteras.

A lo largo de su presentación, Aldridge cuestiona la idea errónea de que el comercio de alta frecuencia no tiene impacto en los administradores de cartera a largo plazo. Ella argumenta que los cambios sistémicos en el mercado afectan todas las estrategias de inversión, independientemente de su horizonte temporal. Basándose en su experiencia en ingeniería eléctrica, desarrollo de software, gestión de riesgos y finanzas, Aldridge enfatiza la importancia de explorar nuevas áreas, como la evaluación de riesgos en tiempo real y la optimización de carteras.

Aldridge destaca el cambio significativo hacia la automatización en la industria financiera, señalando que el comercio manual ha dado paso a sistemas automatizados en el comercio de acciones, divisas, renta fija y materias primas. Para seguir siendo relevantes, los participantes de la industria han adoptado técnicas de big data y aprendizaje automático. Sin embargo, reconoce la resistencia inicial de algunos comerciantes que temían que la automatización dejara obsoleta su experiencia.

El orador explora la evolución de los grandes datos y su papel en la optimización de la cartera. Ella señala que la disponibilidad de grandes cantidades de datos estructurados y no estructurados ha revolucionado el panorama financiero. Aldridge explica cómo técnicas como la descomposición de valores singulares (SVD) permiten el procesamiento de grandes conjuntos de datos para extraer información valiosa. SVD se usa cada vez más para automatizar la asignación de carteras, con el objetivo de incorporar la mayor cantidad de datos posible para informar las decisiones de inversión.

Aldridge profundiza en el proceso de reducción de las dimensiones de los datos mediante la descomposición de valores singulares. Al graficar valores singulares derivados a través de este proceso, los investigadores pueden identificar los vectores que contienen información significativa mientras tratan los vectores restantes como ruido. Esta técnica se puede aplicar a varios conjuntos de datos financieros, incluida la capitalización de mercado, la beta, el precio y la volatilidad intradía. El conjunto de datos reducido resultante proporciona una guía confiable para fines de investigación y ayuda a identificar factores cruciales para la optimización de la cartera a largo plazo.

El orador analiza los factores comunes empleados por los analistas de cartera, como el precio, el riesgo de mercado (beta), la capitalización de mercado y la rentabilidad por dividendo. La actividad institucional también es un factor importante, y Aldridge destaca el uso de big data para analizar datos de ticks y detectar patrones. Reconocer la actividad institucional proporciona señales visibles a los participantes del mercado, lo que lleva a un mayor volumen y una ejecución favorable.

Aldridge distingue entre estrategias HFT agresivas y pasivas y su impacto en la liquidez. Las estrategias HFT agresivas, caracterizadas por cancelaciones de órdenes, pueden erosionar la liquidez y contribuir al riesgo, mientras que las estrategias HFT pasivas, como la creación de mercado, pueden reducir la volatilidad al proporcionar liquidez. Ella señala que la preferencia por el precio promedio ponderado por volumen por parte de los inversionistas institucionales y el uso de precios promedio ponderados por tiempo en ciertos mercados, como el de divisas, donde la información sobre el volumen puede no estar siempre disponible.

El orador aborda los desafíos que plantean los datos de volumen intradía, dada la multitud de intercambios, la reducción de los intervalos de tiempo y la necesidad de determinar el mejor negocio y la mejor oferta entre múltiples intercambios. A pesar de estos desafíos, Aldridge ve oportunidades significativas para la innovación y una mayor investigación en el corte y análisis de datos de volumen intradía. Ella menciona el Procesador de información de seguridad (SIP) administrado por la SEC, que agrega órdenes de límite de múltiples intercambios, pero reconoce el desafío continuo de conciliar y resolver problemas en diferentes intercambios.

Aldridge destaca los factores y riesgos microestructurales no explorados en la optimización de carteras. Si bien los administradores de carteras a largo plazo tradicionalmente se enfocan en las características de riesgo-rendimiento y pasan por alto los factores microestructurales, Aldridge sugiere incorporarlos como insumos y aprovechar la gran cantidad de datos disponibles. Ella propone un enfoque paso a paso que implica el uso de la descomposición de valores singulares para predecir el rendimiento en función de los rendimientos anteriores y el uso de big data para identificar y abordar los riesgos en tiempo real. Los algoritmos pueden ayudar a identificar y aprovechar complejidades complejas en los intercambios, como órdenes de ping, que pueden pasar desapercibidas para los comerciantes humanos.

Al desafiar las limitaciones de la optimización de cartera tradicional, Aldridge presenta un enfoque más integral que integra factores microestructurales y otras dinámicas del mercado. Ella destaca el potencial disruptivo de factores como los ETF y las caídas repentinas y enfatiza que las matrices de correlación por sí solas pueden no ser suficientes para analizar el riesgo. Al considerar factores microestructurales independientes que van más allá de los movimientos más amplios del mercado, Aldridge aboga por una estrategia matizada de optimización de la cartera que puede aumentar los rendimientos y mejorar los índices de Sharpe. Se pueden encontrar más detalles sobre su enfoque en su libro, y agradece las preguntas de la audiencia sobre el comercio de alta frecuencia.

Aldridge profundiza aún más en la persistencia del comercio de alta frecuencia dentro de un día y sus implicaciones para la asignación de cartera a largo plazo. Ella ilustra esto con el ejemplo del volumen de operaciones intradía de alta frecuencia de Google, que exhibe estabilidad dentro de un cierto rango a lo largo del tiempo. Aldridge destaca los costos más bajos asociados con el comercio de alta frecuencia en acciones de mayor precio y el menor porcentaje de volumen de comercio de alta frecuencia en acciones de centavo. Además, señala que la complejidad de la codificación a menudo disuade a los comerciantes de alta frecuencia de comprometerse con acciones de altos dividendos. Las estrategias comerciales agresivas de alta frecuencia implican órdenes de mercado u órdenes limitadas agresivas colocadas cerca del precio de mercado.

El orador explica el ciclo de vida de tres años de una estrategia cuantitativa, arrojando luz sobre los desafíos que enfrentan los cuantitativos para producir estrategias exitosas. El primer año generalmente implica traer una estrategia exitosa de un trabajo anterior y ganar una buena bonificación. El segundo año está marcado por intentos de innovar, pero muchos luchan por desarrollar una estrategia exitosa durante este período. En el tercer año, aquellos que hayan encontrado una estrategia exitosa pueden ganar una buena bonificación, mientras que otros pueden optar por irse y llevar su estrategia anterior a una nueva empresa. Esto contribuye a una concentración de estrategias comerciales similares de alta frecuencia, que pueden ajustarse o modificarse ligeramente y, a menudo, ejecutan operaciones al mismo tiempo. Aldridge enfatiza que el comercio de alta frecuencia, al igual que otras formas de automatización, es beneficioso y no debe descartarse.

Aldridge concluye su presentación discutiendo el potencial de la realidad virtual y la automatización en el análisis de datos. Ella se refiere a la utilidad de las carteras y factores basados en beta, usando el ejemplo de comprar un par de calcetines versus comprar una computadora Dell y cómo los cambios en beta afectan sus precios de manera diferente. También se destaca la importancia de normalizar las devoluciones y abordar la aleatoriedad en los días hábiles. Aldridge sugiere emplear factores como una forma de defensa y enfatiza que usar factores puede ser un enfoque agradable.

En una sección, Aldridge explica la aplicación de una matriz informática para determinar la importancia o el coeficiente de cada acción en una cartera. La matriz incorpora técnicas de reducción, covarianza y varianza para ajustar los rendimientos y lograr un resultado más preciso. Al identificar patrones en los rendimientos de días anteriores, la matriz puede predecir resultados futuros y optimizar la cartera. Si bien el modelo de juguete discutido representa un ejemplo básico, ejemplifica el potencial de usar una matriz de computadora para la optimización de la cartera a largo plazo.

En resumen, la presentación de Irene Aldridge brinda información valiosa sobre el impacto del comercio de alta frecuencia en los administradores de cartera a largo plazo y el panorama en evolución de la industria financiera. Ella enfatiza el papel de la automatización, los grandes datos y el aprendizaje automático en la optimización de la cartera. Aldridge analiza los desafíos y las oportunidades que presentan los datos de volumen intradía, aboga por incorporar factores microestructurales y propone un enfoque paso a paso para la identificación de riesgos en tiempo real. Sus ideas contribuyen a una comprensión más matizada de la optimización de carteras y destacan el potencial de la realidad virtual y la automatización para el análisis de datos. El enfoque integral de Aldridge alienta a los administradores de cartera a adoptar los avances tecnológicos y aprovechar la gran cantidad de datos disponibles para tomar decisiones de inversión informadas.

Además, Aldridge enfatiza la importancia de considerar factores microestructurales que a menudo pasan desapercibidos en la optimización de cartera tradicional. Al incorporar factores como los ETF y las caídas repentinas en el análisis, los administradores de cartera pueden obtener una comprensión más precisa de la dinámica del mercado y los riesgos asociados. Ella cuestiona la noción de que las matrices de correlación por sí solas son suficientes para el análisis de riesgos y propone un enfoque más sofisticado que tiene en cuenta factores microestructurales independientes. Este enfoque tiene el potencial de mejorar los rendimientos de la cartera y mejorar el rendimiento ajustado al riesgo.

Aldridge también arroja luz sobre el intrincado mundo del comercio de alta frecuencia. Ella analiza la distinción entre estrategias HFT agresivas y pasivas, destacando su impacto en la liquidez y volatilidad del mercado. Si bien las estrategias agresivas que implican cancelaciones de órdenes pueden erosionar la liquidez y aumentar el riesgo, las estrategias pasivas centradas en órdenes limitadas y creación de mercado pueden proporcionar liquidez y reducir la volatilidad. Comprender la dinámica del comercio de alta frecuencia y sus implicaciones en la asignación de carteras es esencial para los administradores de carteras a largo plazo.

Además, Aldridge analiza los desafíos y oportunidades asociados con los datos de volumen intradía. Con múltiples intercambios e intervalos de tiempo cada vez más reducidos, el análisis e interpretación efectivos de estos datos puede ser complejo. Sin embargo, Aldridge ve esto como una oportunidad para la innovación y la investigación. Ella menciona el Procesador de información de seguridad (SIP) operado por la SEC, que agrega órdenes limitadas de varios intercambios para determinar el mejor negocio y la mejor oferta. Sin embargo, reconoce que reconciliar y resolver problemas entre diferentes intercambios sigue siendo un desafío.

La presentación de Aldridge también enfatiza la importancia de usar factores como una forma de defensa en la optimización de la cartera. Al considerar varios factores más allá de las características tradicionales de riesgo-rendimiento, los administradores de cartera pueden obtener conocimientos más profundos y mejorar su proceso de toma de decisiones. Factores como la capitalización de mercado, la beta, el precio y la volatilidad intradía pueden brindar información valiosa para optimizar las carteras a largo plazo.

Por último, Aldridge aborda el potencial de la realidad virtual y la automatización en el análisis de datos. Estos avances tecnológicos ofrecen nuevas posibilidades para analizar datos financieros complejos y obtener una comprensión más profunda de la dinámica del mercado. Al aprovechar el poder de la automatización y aprovechar las herramientas de realidad virtual, los administradores de cartera pueden mejorar sus capacidades de análisis de datos y tomar decisiones de inversión más informadas.

En conclusión, la discusión de Irene Aldridge sobre el impacto del comercio de alta frecuencia y el panorama financiero en evolución proporciona información valiosa para los administradores de cartera a largo plazo. Su exploración de la automatización, los macrodatos y el aprendizaje automático destaca el potencial transformador de estas tecnologías en la optimización de carteras. Al incorporar factores microestructurales, utilizar factores como una forma de defensa y adoptar los avances tecnológicos, los administradores de cartera pueden adaptarse a la dinámica cambiante del mercado y desbloquear nuevas oportunidades para lograr un rendimiento óptimo de la cartera a largo plazo.

  • 00:00:00 Irene Aldridge analiza la idea errónea de que el comercio de alta frecuencia no afecta a los administradores de cartera a largo plazo. Si bien muchos administradores afirman que pueden mantener activos durante mucho tiempo y, por lo tanto, evitar el impacto del comercio de alta frecuencia, Aldridge argumenta que en realidad afecta a los administradores de cartera a largo plazo. Ella explica cómo los cambios sistémicos en el mercado y cómo impactan a todos pueden tener implicaciones para los administradores de cartera, ya sea que su estrategia de inversión sea a largo o corto plazo. Aldridge tiene experiencia en ingeniería eléctrica, desarrollo de software, gestión de riesgos y finanzas, y su trabajo incluye la exploración de nuevas áreas, como el riesgo en tiempo real y la optimización de carteras.

  • 00:05:00 En esta sección, el orador analiza el cambio hacia la automatización en la industria financiera y cómo, incluso hace una década, la mayoría de las transacciones se realizaban manualmente. Sin embargo, ahora la automatización se ha vuelto predominante no solo en el comercio de acciones, sino también en el comercio de divisas, renta fija y materias primas. El objetivo de la automatización es reemplazar el comercio humano, y aquellos que siguen siendo relevantes en la industria han adoptado big data y aprendizaje automático para mantenerse actualizados. Sin embargo, algunos comerciantes se resistían a compartir su conocimiento con las computadoras, por temor a que esto condujera a la automatización inmediata y su propia obsolescencia.

  • 00:10:00 Irene Aldridge habla sobre la evolución de los grandes datos y cómo se utilizan en la optimización de carteras. Ella señala que hace solo unos años, la mayoría de las instituciones financieras no tenían acceso a grandes cantidades de datos, pero esto ha cambiado y ahora hay bases de datos de datos estructurados y no estructurados que se pueden procesar de diferentes maneras para generar información útil. Uno de estos métodos es la descomposición de valores singulares (SVD), que reduce grandes cantidades de datos a formas más manejables. Aldridge explica cómo se utiliza SVD para automatizar la asignación de carteras, que es una industria que está al borde de la automatización. Aunque algunas empresas todavía usan investigadores para analizar datos mensuales y tomar decisiones de inversión basadas en esos datos, la tendencia es incorporar la mayor cantidad de datos posible para informar las decisiones de inversión.

  • 00:15:00 Irene Aldridge analiza el proceso de reducción de las dimensiones de los datos a través de la descomposición de valores singulares. Al graficar los valores singulares extraídos a través de este proceso, los investigadores pueden determinar qué vectores contienen información significativa y concentrarse en mantener esos vectores mientras consideran el resto como ruido. Esta técnica se puede aplicar a una variedad de conjuntos de datos, incluidos datos financieros como la capitalización de mercado, la beta, el precio y la volatilidad intradía. El conjunto de datos reducido resultante proporciona una guía confiable para fines de investigación y ayuda a identificar factores importantes para la optimización de la cartera a largo plazo.

  • 00:20:00 En esta sección, Irene Aldridge analiza los factores que suelen utilizar los analistas de cartera, como el precio y el riesgo de mercado o beta. La capitalización de mercado y el rendimiento de dividendos también son factores utilizados en la optimización de cartera que se incluyen en el marco utilizado por empresas como MSCI, Barra y otras. Aldridge explica cómo estiman la actividad institucional utilizando big data en datos de ticks y buscando patrones específicos en los datos. La actividad institucional es importante porque es una señal visible para los participantes del mercado, lo que puede llevar a que otros participantes del mercado se abalanzan sobre ellos, lo que hace que la orden aumente en volumen y resulte en la ejecución favorable de la orden.

  • 00:25:00 Irene Aldridge analiza la diferencia entre las estrategias HFT agresivas y pasivas, que afectan la liquidez. Las estrategias HFT agresivas pueden estar impulsadas por alfa e involucrar muchas cancelaciones de órdenes, lo que erosiona la liquidez y contribuye al riesgo, mientras que las estrategias HFT pasivas, que involucran órdenes puramente limitadas como la creación de mercado, pueden reducir la volatilidad al proporcionar más liquidez. Los inversores institucionales prefieren un precio medio ponderado por volumen, mientras que los precios medios ponderados por tiempo todavía se utilizan en algunos mercados, como el de divisas, donde el volumen no siempre está disponible. En general, HFT es un tema complejo que tiene beneficios y riesgos.

  • 00:30:00 En esta sección, Irene Aldridge analiza la estructura de las columnas de datos y los desafíos que conllevan los datos de volumen intradía, dada la gran cantidad de intercambios, los intervalos de tiempo cada vez más reducidos de los cambios y la cuestión de encontrar el mejor negocio y mejor oferta entre múltiples intercambios. A pesar de los desafíos, ella cree que los datos de volumen intradía se pueden dividir en cubitos de muchas maneras diferentes y presentan una oportunidad para la innovación y la investigación adicional. También menciona el Procesador de información de seguridad (SIP) administrado por la SEC que agrega órdenes de límite de múltiples intercambios y determina el mejor negocio y la mejor oferta, pero señala que reconciliar y resolver problemas entre diferentes intercambios sigue siendo un desafío.

  • 00:35:00 El orador explica que, si bien los administradores de carteras a largo plazo se preocupan principalmente por las características de riesgo-rendimiento y no se preocupan por la ejecución, existen muchas microestructuras y factores de riesgo que están completamente inexplorados y que podrían usarse como insumos, como así como una gran cantidad de datos que podrían proporcionar nueva información y conocimientos. Proponen un enfoque paso a paso que implica el uso de la descomposición de valores singulares para predecir el rendimiento en función de los rendimientos anteriores y aprovechar los grandes datos para identificar y abordar los riesgos en tiempo real. El orador también señala que hay muchas órdenes de ping y otras complejidades en los intercambios que no siempre son evidentes para los comerciantes humanos, pero que pueden identificarse y aprovecharse mediante algoritmos.

  • 00:40:00 En esta sección, Irene Aldridge analiza las limitaciones de la optimización de cartera tradicional para la inversión a largo plazo e introduce un nuevo enfoque que integra la microestructura y otros factores del mercado en el proceso de optimización. Ella explica cómo factores como los ETF y las caídas repentinas pueden perturbar el mercado y cómo las matrices de correlación pueden no ser suficientes para analizar el riesgo. Al considerar los factores microestructurales que son independientes de los grandes movimientos del mercado, Aldridge propone un enfoque más matizado para la optimización de la cartera que puede mejorar los rendimientos y los índices de Sharpe. Ella señala que su enfoque se cubre con más detalle en su libro y responde preguntas de la audiencia sobre el comercio de alta frecuencia.

  • 00:45:00 Irene Aldridge explica la persistencia del comercio de alta frecuencia dentro de un día y cómo afecta la asignación de cartera a largo plazo. Ella señala que, si bien el volumen de negociación intradiario de alta frecuencia puede oscilar entre 0 y 100, con el tiempo ha sido bastante estable para Google, por ejemplo, con un rango de 36-42%. Esta estabilidad persiste también para otras acciones. La negociación de alta frecuencia tiene un costo menor cuando se negocian acciones de mayor precio, y hay un porcentaje menor de volumen de negociación de alta frecuencia para acciones de centavo. Además, los comerciantes de alta frecuencia tienden a evitar las acciones con altos dividendos debido a la complejidad de la codificación. El trading agresivo de alta frecuencia es aquel que utiliza órdenes de mercado u órdenes limitadas agresivas cercanas al precio de mercado.

  • 00:50:00 Irene Aldridge explica el ciclo de vida de tres años de una estrategia cuantitativa, donde en el primer año, el cuantitativo trae una estrategia exitosa de su trabajo anterior y gana una buena bonificación, en el segundo año intentan innovar pero muchas personas luchan por producir una estrategia exitosa, y en el tercer año, si encuentran algo bueno, pueden ganar una buena bonificación; de lo contrario, se van y llevan su estrategia anterior a una nueva tienda. Esto contribuye a la concentración de estrategias comerciales similares de alta frecuencia, que podrían ajustarse o modificarse ligeramente y, a menudo, ejecutarse casi al mismo tiempo. Aldridge cree que el comercio de alta frecuencia es bueno y no excusable como lo es la automatización, al igual que los robots que limpian los pisos o un sistema de automatización del hogar que controla la calefacción y la refrigeración.

  • 00:55:00 Irene Aldridge, presidenta y directora general de Able Alpha Trading, analiza el potencial de la realidad virtual y la automatización para el análisis de datos. También se refiere a la utilidad de las carteras y factores basados en beta, citando el ejemplo de comprar un par de calcetines versus comprar una computadora Dell y cómo los cambios en beta afectan sus precios de manera diferente. Destaca la importancia de normalizar las devoluciones y aborda el tema de la aleatoriedad en días hábiles. Por último, Aldridge cubre el uso de factores como una forma de defensa y sugiere que usar factores puede ser divertido.

  • 01:00:00 En esta sección, Aldridge analiza el uso de una matriz informática para determinar la importancia o el coeficiente de cada acción en una cartera. Las filas de la matriz representan cada acción, la primera fila representa manzanas y las otras filas son datos de mercado para diferentes acciones. Al incorporar la covarianza de la varianza y la reducción, la matriz puede incorporar el rendimiento y hacer ajustes para alcanzar un resultado más específico. Esto se hace encontrando X-mas en el regreso de los días anteriores y prediciendo desde allí. Si bien el modelo de juguete descrito es solo un ejemplo básico, muestra cómo se puede usar una matriz de computadora para optimizar una cartera.
 

Conceptos básicos del comercio cuantitativo



Conceptos básicos del comercio cuantitativo

En este video sobre los conceptos básicos del comercio cuantitativo, el comerciante algorítmico Shaun Overton analiza los desafíos y las oportunidades que implica el comercio algorítmico. Overton explica que la recopilación, el análisis y el comercio de datos son los tres problemas simples involucrados en el comercio algorítmico, aunque el proceso puede complicarse debido a la búsqueda de datos de alta calidad y un análisis adecuado. Puede ser un desafío seleccionar la plataforma correcta con buenos datos y funciones para cumplir con los objetivos del comerciante, siendo las plataformas más populares MetaTrader, NinjaTrader y TradeStation, según el tipo de negociación que prefiera. Overton también analiza la dura realidad de lo fácil que es explotar cuentas cuando se opera en el mercado en vivo y lo importante que es administrar el riesgo. Además, explica cómo los comerciantes cuantitativos pueden predecir movimientos excesivos en el mercado y analiza el impacto de las guerras de divisas.

El video "Fundamentos del comercio cuantitativo" en YouTube cubre varias estrategias para el comercio algorítmico, incluido el análisis de sentimientos y estrategias a largo plazo basadas en líneas de gráfico; sin embargo, los mayores retornos se obtienen durante los eventos y tendencias de gran cola. Los asistentes al video discuten diferentes plataformas para backtesting, los desafíos de integrar múltiples plataformas para el análisis comercial y el creciente interés en formalizar y automatizar estrategias comerciales. Algunos comerciantes a largo plazo buscan la automatización ya que han estado en el juego durante mucho tiempo, y se recomienda NinjaTrader para lenguajes de programación, pero tiene limitaciones.

  • 00:00:00 El comerciante algorítmico Shaun Overton explica los tres problemas simples involucrados en el comercio algorítmico: recopilación de datos, análisis y comercio. Sin embargo, el proceso puede complicarse debido a obstáculos como encontrar datos de alta calidad y un análisis adecuado, especialmente porque el comercio requiere un examen cuidadoso de los datos. No se recomienda operar con opciones gratuitas, ya que pueden contener duplicados o lagunas en los datos. Además, el uso de opciones pagas está fuera de la liga del comerciante minorista, ya que puede costar miles de dólares por instrumento. No obstante, el comercio se puede simplificar mediante el uso de plataformas que ofrecen software y API de intermediarios.

  • 00:05:00 El orador analiza las diferentes opciones de software disponibles para analizar datos y realizar transacciones. Las plataformas más populares para el comercio de divisas son MetaTrader, NinjaTrader y TradeStation, según el tipo de comercio que prefiera. MetaTrader es abrumadoramente el más popular y hay más de mil corredores en todo el mundo que lo ofrecen. El orador explica que el uso de una plataforma preconstruida como estas opciones hace que el comercio y el análisis de datos sean más sencillos y evita la necesidad de recodificar el análisis varias veces cuando llega el momento de operar. El ponente también repasa los diferentes lenguajes de programación que utiliza cada plataforma.

  • 00:10:00 El orador analiza las diferentes plataformas para el comercio cuantitativo y explica cómo Multicharts se ha vuelto popular al copiar la plataforma y el lenguaje de TradeStation. Sin embargo, existen diferencias entre los idiomas y no siempre es completamente compatible. El orador también habla sobre la importancia de los datos en el comercio cuantitativo y los desafíos que conlleva cada plataforma. Señala que MetaTrader es fácil de usar, pero no lo suficientemente sofisticado para un análisis más complejo, y que los datos proporcionados suelen ser de mala calidad. En general, el orador destaca la importancia de seleccionar cuidadosamente una plataforma con buenos datos y características que cumplan con los objetivos del comerciante.

  • 00:15:00 Shaun Overton analiza los desafíos de recopilar y almacenar datos para estrategias comerciales cuantitativas. Explica las dificultades de tratar de almacenar datos de prueba de años y las limitaciones que imponen los corredores para obtener datos debido a las limitaciones del servidor. Señala que si bien MetaTrader ofrece datos gratuitos, no son datos de alta calidad, mientras que NinjaTrader proporciona buenos datos pero tiene una curva de aprendizaje pronunciada para configurar. También advierte sobre los peligros de programar estrategias específicas para un determinado corredor, ya que casa al comerciante con ese corredor en particular, lo que dificulta el cambio si no está satisfecho. Enumera las razones por las que los comerciantes pueden estar molestos con un corredor, incluido el mal servicio y la mala ejecución.

  • 00:20:00 Shaun Overton explica algunos de los problemas y juegos que juegan los corredores para ganar dinero con los comerciantes y sus operaciones. Los corredores pueden manipular los precios del mercado y las operaciones para obligar a los operadores a pagar más por sus operaciones mostrando un precio y luego haciendo que los operadores acepten un precio peor. Además, un comerciante puede recibir una mala ejecución debido a una latencia deficiente o una falla del software. Actualmente, el mayor problema con el comercio algorítmico es la corrupción institucionalizada y cómo las instituciones pueden robar dinero de los comerciantes debido a accidentes tecnológicos, así como Dark Pools y otros lugares de comercio que tienen sus propias reglas para manipular los intercambios.

  • 00:25:00 El orador analiza las limitaciones de las plataformas específicas de corredores para el comercio cuantitativo. Si bien pueden ser eficientes para estrategias extremadamente simples, tienen limitaciones y no pueden admitir nada más sofisticado. El orador recomienda plataformas estables como NinjaTrader y MultiCharts, que tienen una buena calidad de investigación y permiten una programación personalizada y ajustes de GUI. Sin embargo, el orador advierte que estas plataformas no son adecuadas para administrar carteras o administrar fondos, ya que carecen de la capacidad de hablar con múltiples gráficos y requieren mucho trabajo manual.

  • 00:30:00 Shaun Overton analiza la dura realidad de lo fácil que es explotar cuentas cuando se negocia en el mercado en vivo, en el que el 90-95 % de las cuentas se cierran en 6 meses o en un año completo. Hay 2 formas en que los corredores ganan dinero, por comisiones o por riesgo, y con frecuencia la forma más popular y lucrativa es asumiendo pérdidas comerciales. Los comerciantes habituales ganan dinero cuando la volatilidad es baja, pero cuando es alta, se ven diezmados. Se habla de la gestión de riesgos, pero para la mayoría de las personas es solo palabrería y siguen perdiendo dinero al no gestionar sus riesgos.

  • 00:35:00 Shaun analiza cómo la volatilidad afecta las estrategias comerciales cuantitativas y cómo los comerciantes minoristas tienden a equivocarse en sus predicciones de mercado. Explica cómo los corredores con acceso a las cuentas de los clientes pueden rastrear la proporción de posiciones largas frente a posiciones cortas y cómo esta información puede usarse para predecir movimientos sobreextendidos. Overton señala que esta información está cada vez más disponible, con sitios web como MyFxBook y OANDA que publican datos sobre el posicionamiento en el mercado. Sin embargo, advierte que, si bien esta información puede ser una mina de oro para los corredores, es posible que no proporcione un flujo de efectivo constante y que se traduzcan en períodos de grandes pérdidas.

  • 00:40:00 Shaun Overton analiza el potencial de los comerciantes cuantitativos para analizar los fondos de los clientes de los principales bancos para diseñar estrategias largas y cortas basadas en el porcentaje de operaciones que van en una dirección determinada. También comenta sobre el escepticismo de los inversores minoristas que participan en el mercado de valores, particularmente a la luz de las noticias negativas recientes, que llevaron a un retiro de miles de millones de dólares desde el último colapso. Overton también menciona una noticia reciente en CNBC sobre los grandes administradores de fondos y su impacto en las acciones de las grandes empresas, lo que demuestra el poder del dinero institucional para mover el mercado.

  • 00:45:00 Se discute cómo el comercio institucional, especialmente en forex, puede no ser tan influyente en el mercado como el comercio minorista debido al tamaño promedio de la cuenta de los comerciantes. Sin embargo, las evaluaciones más grandes y las mayores cantidades de dinero negociadas hacen que más personas jueguen con los precios, e incluso pequeños eventos como el comercio borracho podrían tener un impacto en el mercado. El principal impulsor de las divisas son las tasas de interés, y es una guerra de divisas en la que todos quieren una tasa de interés cero, lo que dificulta determinar qué moneda del país es la más débil. Por último, se analiza el par de divisas de Japón, dólar yen, en términos de su historia y cómo la caída de sus precios podría estar relacionada con el debilitamiento del dólar y el fortalecimiento del yen.

  • 00:50:00 Shaun Overton analiza el impacto de las guerras de divisas en los exportadores. Explica cómo los exportadores como Toyota se ven muy afectados cuando el valor de la moneda en la que operan aumenta de valor. Overton afirma que actualmente hay una guerra de divisas entre las principales monedas, donde los países están tratando de devaluarse, con todos compitiendo para ser cero. Por lo tanto, los comerciantes deben especular sobre quién hará el peor trabajo para destruir una moneda, ya que serán los mejores en este entorno. Overton siente que el dólar es actualmente un desastre, pero el mejor desastre hasta ahora. Los riesgos y eventos sociales específicos de cada país, como el 11 de septiembre y el desastre de Fukushima, también pueden afectar los precios de las divisas.

  • 00:55:00 Los oradores discutieron el comercio en mercados pequeños y monedas exóticas. Se mencionó que para el comercio algorítmico se necesita liquidez y un margen pequeño, lo que dificulta el comercio en monedas menos populares como el rand sudafricano o la lira turca. Además, el diferencial de estas monedas puede ser 8 o 9 veces mayor de lo que cuesta negociar el euro frente al dólar, lo que dificulta obtener ganancias. Con respecto a las estrategias para aquellos con menos de 50k en sus cuentas, los oradores mencionan la importancia de centrarse en cosas como el informe Compromisos de los comerciantes en los mercados de futuros para obtener información sobre las posiciones del mercado.

  • 01:00:00 Un grupo discute varias estrategias para el comercio algorítmico, incluido el análisis de sentimientos y una estrategia simple a largo plazo basada en líneas de gráficos. El desafío con el comercio es comprender la distribución de los rendimientos, ya que la mayoría de las veces es solo ruido. Sin embargo, los mayores retornos se obtienen durante los grandes eventos y tendencias. Por lo tanto, las mejores estrategias no generan dinero constantemente, sino que aprovechan las oportunidades cuando se presentan. A pesar del deseo de señales y acción, es mejor dejar que el mercado haga lo que va a hacer. También se menciona Quantopian, un programa que analiza datos de mercado.

  • 01:05:00 En esta sección, los asistentes al video de YouTube "Fundamentos del comercio cuantitativo" analizan las diferentes plataformas que utilizan para realizar pruebas retrospectivas y optimización, así como los desafíos de integrar múltiples plataformas para el análisis comercial y el desarrollo de estrategias. Mientras que algunos asistentes señalan que Quantopian proporciona una plataforma para el análisis individual y está negociando contratos con corredores para resolver potencialmente los desafíos de integración de la plataforma, otros discuten las limitaciones de plataformas como NinjaTrader y las dificultades de integrarlas con otras plataformas, y algunos destacan el hecho de que son más adecuados para el comercio manual o como simples herramientas de backtesting. Además, Shaun Overton señala que su negocio se basa en la formalización y automatización de las propias estrategias de los comerciantes, y los asistentes señalaron que tanto los comerciantes individuales como los mercados muestran un interés creciente en formalizar y automatizar sus estrategias comerciales.

  • 01:10:00 Los comerciantes que asisten a un seminario de comercio cuantitativo preguntan sobre los beneficios de automatizar ciertas estrategias comerciales. Shaun Overton, el orador, señala que algunos comerciantes que han estado en el juego durante 10, 20 o incluso 30 años simplemente quieren automatizar sus estrategias para no tener que monitorearlas todo el día. Cuando se habla de lenguajes de programación específicos para el comercio, Overton respalda a NinjaTrader porque se ejecuta en C Sharp, pero señala que existen limitaciones en lo que se puede hacer dentro de él.
 

¿Qué es un comerciante cuantitativo?



¿Qué es un comerciante cuantitativo?

"¿Qué es un comerciante cuantitativo?" es un video en el que Michael Halls-Moore se adentra en el mundo del comercio cuantitativo y explica cómo se utilizan las matemáticas y las estadísticas para desarrollar estrategias comerciales y analizar las ineficiencias del mercado. Si bien los fondos cuantitativos se centran principalmente en estrategias a corto plazo, el orador destaca que también se utilizan enfoques automatizados y de baja frecuencia. Los comerciantes institucionales priorizan la gestión de riesgos, mientras que los comerciantes minoristas están motivados por las ganancias. La detección efectiva del régimen de mercado es crucial pero desafiante debido a eventos aleatorios en el mercado. Se recomienda a los comerciantes cuantitativos que no confíen únicamente en un solo modelo, sino que investiguen y prueben constantemente otros nuevos para tener en cuenta las dinámicas de mercado conocidas y desconocidas. A pesar de los riesgos involucrados, los comerciantes cuantitativos exitosos pueden lograr un rendimiento anual impresionante del 35% sobre las tarifas.

En el video, Michael Halls-Moore brinda una perspectiva perspicaz sobre el concepto de "comerciante cuantitativo". Explica que los comerciantes cuantitativos emplean técnicas matemáticas y estadísticas en el campo de las finanzas, utilizando métodos computacionales y estadísticos. Su trabajo abarca una amplia gama de actividades, desde la programación de estructuras comerciales hasta la realización de investigaciones en profundidad y el desarrollo de estrategias comerciales sólidas. Si bien las reglas de compra y venta juegan un papel, no son el único enfoque, ya que los comerciantes cuantitativos operan dentro de un sistema más grande donde los generadores de señales son solo un componente.

Los fondos cuantitativos suelen participar en transacciones de alta frecuencia y se esfuerzan por optimizar la tecnología y las microestructuras dentro de los activos del mercado. Los marcos de tiempo involucrados en el comercio cuantitativo pueden variar mucho, desde microsegundos hasta semanas. Los comerciantes minoristas tienen una gran oportunidad para adoptar estrategias de estilo de mayor frecuencia.

Contrariamente a la creencia popular, el comercio cuantitativo no se centra únicamente en el comercio y el arbitraje de alta frecuencia. También incorpora estrategias de baja frecuencia y automatizadas. Sin embargo, debido a su enfoque científico de capitalizar las ineficiencias físicas del sistema, los fondos cuantitativos se concentran predominantemente en estrategias a corto plazo. El orador enfatiza la importancia de tener una combinación de antecedentes científicos y comerciales para prosperar en el campo del comercio cuantitativo.

Una distinción notable entre los comerciantes minoristas e institucionales radica en su enfoque de la gestión de riesgos. Los comerciantes minoristas están motivados principalmente por motivos de ganancias, mientras que los comerciantes institucionales priorizan la gestión de riesgos, incluso si eso significa sacrificar los rendimientos potenciales. Los comerciantes institucionales adoptan una mentalidad de riesgo primero y enfatizan la diligencia debida, las pruebas de estrés y la implementación de pólizas de seguro contra caídas para mitigar los riesgos de manera efectiva.

La gestión de riesgos implica varias técnicas, como el ajuste del apalancamiento en función del patrimonio de la cuenta utilizando marcos matemáticos como el criterio de Kelly. Los comerciantes más conservadores optan por reducir las reducciones para lograr una tasa de crecimiento controlada. Los principales indicadores de riesgo como el VIX se utilizan para medir la volatilidad futura. En estas operaciones, el sistema de gestión de riesgos tiene más importancia que el sistema de entrada. Mientras que los stop loss se emplean en el seguimiento de tendencias, las estrategias de reversión a la media exigen reevaluar y explorar diferentes escenarios y datos históricos para la planificación de reducción. Antes de implementar los algoritmos comerciales, se llevan a cabo fases de backtesting para administrar los factores de riesgo de manera efectiva.

El video profundiza en la importancia de filtrar las estrategias comerciales y utilizar el backtesting como una herramienta para filtrarlas en lugar de ponerlas directamente en producción. Destaca la importancia de esperar peores caídas durante el avance y utilizar mecanismos de filtración para determinar la idoneidad de una estrategia para su implementación. Luego, la conversación profundiza en la creencia de Nassim Nicholas Taleb en las colas gruesas y explora cómo se puede emplear la tecnología de aprendizaje automático para aplicar estrategias de comercio de rango y comercio de tendencia, lo que permite la detección del régimen de mercado.

La detección efectiva del régimen de mercado es un aspecto crítico de las finanzas cuantitativas. Sin embargo, plantea desafíos debido a su dependencia de eventos aleatorios, como caídas de las tasas de interés y tendencias del mercado. Las empresas más sofisticadas rastrean los datos fundamentales y los incorporan en sus modelos para mejorar la detección del régimen de mercado. Al operar, la selección de acciones o ETF depende del mercado específico, y elegir los activos correctos puede ser una tarea compleja. El orador enfatiza que una combinación de modelos matemáticos y fundamentos del mercado es crucial para una defensa efectiva contra los eventos del Cisne Negro, ya que los períodos previos de alta volatilidad pueden proporcionar información para predecir la volatilidad futura y los cambios del mercado.

El video explora aún más los beneficios y riesgos potenciales asociados con el comercio cuantitativo. Los comerciantes cuantitativos tienen el potencial de obtener un rendimiento anual impresionante del 35 % sobre las tarifas, especialmente cuando se combinan con una formación sólida, como un doctorado, y un proceso de gestión eficiente. Sin embargo, los cuantos de alta frecuencia pueden enfrentar desafíos cuando se producen cambios en el hardware subyacente o en el intercambio, lo que puede provocar fallas en el sistema.

A pesar de los riesgos involucrados, se considera favorable lograr un rendimiento constante del 15% al 20% mediante la explotación de oportunidades rentables a largo plazo. Los comerciantes cuantitativos no confían en un único algoritmo mágico ni entran en pánico cuando se enfrentan a problemas. En cambio, profundizan en las propiedades estadísticas que pueden ser complejas de analizar, pero se preparan con anticipación para enfrentar los desafíos potenciales.

El video enfatiza la importancia de evitar la dependencia excesiva de un solo modelo en el comercio cuantitativo. Los modelos no pueden predecir con precisión todos los eventos futuros, como lo demuestran las caídas históricas de Wall Street y las fallas de inversión que resultan de las deficiencias del modelo. Es esencial que los comerciantes cuantitativos investiguen y prueben continuamente nuevos modelos, evaluando su rendimiento. Los períodos de reducción son una parte inherente del viaje comercial y los comerciantes deben estar preparados para navegarlos.

En conclusión, si bien algunos operadores pueden concentrarse demasiado en la microgestión de sus modelos, es vital comprender si un modelo tiene en cuenta todas las dinámicas del mercado, incluidas las incógnitas desconocidas. Los comerciantes cuantitativos deben adoptar un enfoque multidimensional, combinando modelos matemáticos con los fundamentos del mercado para obtener una comprensión integral del comportamiento del mercado. Al refinar y diversificar constantemente sus estrategias, los comerciantes cuantitativos pueden aumentar sus posibilidades de éxito en un panorama financiero en constante evolución.

  • 00:00:00 En esta sección, Michael Halls-Moore explica el significado de "comerciante cuantitativo", que es alguien que usa las matemáticas o las estadísticas en las finanzas de manera computacional y estadística. Esto puede ir desde la programación de estructuras comerciales hasta la investigación de operaciones extremas y el desarrollo de una estrategia. La importancia de las reglas de compra y venta no es tan significativa como otros aspectos, y los generadores de señales son solo una parte de un sistema más grande. Los fondos cuantitativos generalmente se ocupan del comercio de mayor frecuencia y se enfocan en optimizar la tecnología y las microestructuras dentro de los activos del mercado. El marco de tiempo típico para los comerciantes cuantitativos varía de microsegundos a semanas, y la mayor oportunidad del comerciante minorista radica en estrategias de estilo de mayor frecuencia.

  • 00:05:00 En esta sección, aprendemos que el comercio cuantitativo no se trata solo de comercio y arbitraje de alta frecuencia, ya que también incluye estrategias automatizadas y de baja frecuencia. Sin embargo, los fondos cuantitativos generalmente se enfocan en estrategias a corto plazo debido a su enfoque científico de explotar las ineficiencias físicas en el sistema. El orador cree que tener una combinación de conocimientos científicos y comerciales es crucial para tener éxito en el comercio cuantitativo. En lo que respecta a la gestión de riesgos, observa una diferencia cultural entre el comercio minorista y el institucional, donde el último tiene una mentalidad de riesgo primero y enfatiza la debida diligencia, las pruebas de estrés y las pólizas de seguro a la baja.

  • 00:10:00 En esta sección, el video analiza los diferentes enfoques utilizados por los comerciantes minoristas e institucionales con respecto a la gestión de riesgos. Mientras que los comerciantes minoristas se basan principalmente en las ganancias, los comerciantes institucionales se centran en la gestión de riesgos, incluso si los beneficios potenciales son solo una fracción de lo que es posible. El video menciona el criterio de Kelly como un medio matemático para ajustar el apalancamiento en función de la equidad de la cuenta, y los operadores más conservadores optan por una diapositiva en la que reducen su reducción para lograr una tasa de crecimiento más controlada. Además, los principales indicadores de riesgo como el VIX se utilizan para ver la volatilidad futura. El sistema de gestión de riesgos es más importante que el sistema de entrada en estas operaciones, con stop loss que se utilizan en el seguimiento de tendencias, pero no en la reversión a la media, donde los operadores reconsideran y exploran diferentes escenarios e historias para la planificación de reducción. Antes de comenzar a operar con algos, se llevan a cabo fases de backtest para gestionar los factores de riesgo.

  • 00:15:00 En esta sección, el entrevistador y el comerciante cuantitativo analizan la importancia de filtrar las estrategias comerciales y cómo usar el backtesting como un medio para filtrar estrategias en lugar de ponerlas en producción. Resaltan la importancia de esperar peores pérdidas durante el avance y utilizar un mecanismo de filtración para determinar si una estrategia es adecuada o no para su implementación. Luego, la conversación gira en torno a la creencia de Taleb en las colas gordas y cómo aplicar estrategias de negociación de rango y de tendencia en el futuro utilizando tecnología de aprendizaje automático para determinar los cambios en el régimen del mercado.

  • 00:20:00 En esta sección, el orador enfatiza la importancia de la detección efectiva del régimen de mercado en las finanzas cuantitativas. El problema es que es difícil tener esto en cuenta porque se basa en eventos puramente aleatorios, como la caída de las tasas de interés y las tendencias en el mercado. Si bien la detección de los regímenes de mercado es complicada, las empresas más sofisticadas seguirán los datos fundamentales y los incorporarán a sus modelos. Al operar, dependiendo de lo que se opere, hay diferentes números de acciones o ETF para elegir, y seleccionar el correcto puede ser complicado. Además, el orador cree que la defensa del Cisne Negro depende de la combinación de modelos matemáticos y fundamentos del mercado, ya que la terrible volatilidad anterior puede permitir predecir la volatilidad futura y los cambios del mercado.

  • 00:25:00 En esta sección, el video explica los rendimientos que pueden esperar los comerciantes cuantitativos y los riesgos que conlleva. Un comerciante cuantitativo puede obtener un rendimiento anual del 35 % de las tarifas, con la ayuda de un doctorado y un proceso de gestión eficiente. Sin embargo, los cuantos de alta frecuencia pueden sufrir debido a cambios en el hardware subyacente o en el intercambio, lo que hace que su sistema se bloquee. A pesar de estos riesgos, devolver del 15 al 20% en explotar algo que es posible hacerlo a largo plazo es un buen rendimiento. Los comerciantes cuánticos no tienen un solo algoritmo mágico ni entran en pánico cuando enfrentan problemas. Se espera que pasen por algunas propiedades estadísticas que son difíciles de analizar y prepararse con anticipación.

  • 00:30:00 En esta sección, el orador analiza cómo confiar demasiado en un solo modelo no es aconsejable en el comercio cuantitativo, ya que un modelo no puede predecir todos los eventos futuros con precisión. Cita ejemplos de caídas clásicas de Wall Street y fracasos de inversión principalmente debido a las deficiencias del modelo. El ponente destaca la importancia de investigar continuamente nuevos modelos y comprobar su rendimiento; sin embargo, experimentar períodos de reducción siempre sucederá. En conclusión, mientras que algunos comerciantes pueden llegar al punto de microgestionar sus modelos, es esencial comprender si el modelo tiene en cuenta todas las dinámicas del mercado o las incógnitas desconocidas.
 

PyCon Canada 2015 - Karen Rubin: Creación de una estrategia comercial cuantitativa (presentación principal)



PyCon Canada 2015 - Karen Rubin: Creación de una estrategia comercial cuantitativa (presentación principal)

Continuando con la discusión, Karen Rubin profundiza en los hallazgos y puntos de vista de su estudio sobre mujeres directoras ejecutivas en las compañías Fortune 1000. El análisis revela que las directoras ejecutivas femeninas obtienen un rendimiento del 68 %, mientras que los directores ejecutivos masculinos generan un rendimiento del 47 %. Sin embargo, Karen enfatiza que sus datos aún no demuestran que las directoras ejecutivas superen a sus homólogos masculinos. Ella considera este estudio como un concepto intrigante dentro de las empresas de alta capitalización de mercado y de ingresos altos.

Motivada por sus hallazgos, Karen enfatiza la importancia de la diversidad en la industria de las finanzas y la tecnología. Ella alienta a más mujeres a unirse al campo y participar en la elaboración de estrategias de inversión. Ella cree que incorporar ideas como invertir en mujeres CEO puede contribuir a la creación de un fondo diverso e inclusivo.

Ampliando la discusión, Karen toca otros factores que pueden influir en el éxito de los directores ejecutivos, incluido su género, el método de contratación (interno o externo) e incluso su mes de nacimiento. Ella reconoce la teoría de que las empresas pueden designar directoras generales cuando la organización tiene un desempeño deficiente y, posteriormente, reemplazarlas con directores ejecutivos masculinos para aprovechar los beneficios de la reestructuración. Sin embargo, Karen no ha podido arbitrar esta teoría hasta el momento. Además, señala que los precios de las acciones a menudo experimentan una caída después del anuncio de un director ejecutivo, aunque sigue sin estar segura de si esta tendencia difiere entre los directores ejecutivos de mujeres y hombres.

En conclusión, Karen destaca que construir una estrategia comercial cuantitativa para los directores ejecutivos implica considerar varios factores y realizar un análisis exhaustivo. Si bien su estudio proporciona información valiosa sobre el desempeño de las directoras ejecutivas, enfatiza la necesidad de más investigación y exploración para obtener una comprensión más completa de la dinámica de género en el liderazgo ejecutivo y su impacto en los resultados de inversión.

  • 00:00:00 En esta sección, la oradora se presenta a sí misma y su experiencia al escribir un algoritmo para invertir en el mercado. Como vicepresidenta de productos en Quantiacs, un fondo de cobertura de colaboración colectiva, necesitaba escribir un algoritmo para comprender lo que hacían sus usuarios y poder crear un software eficaz para ellos. Se interesó en invertir en directoras ejecutivas después de leer el informe de género de Credit Suisse y se preguntó si podría crear una estrategia que analizara históricamente a las directoras ejecutivas y las vendiera cuando ya no fueran directoras ejecutivas.

  • 00:05:00 En esta sección, Karen Rubin habla sobre los pasos iniciales que tomó para construir una estrategia comercial cuantitativa. Necesitaba obtener una lista histórica de todas las mujeres directoras ejecutivas dentro de un período de tiempo específico para crear una simulación de lo que sucedió con el tiempo. Karen explica que obtener y limpiar los datos tomó una cantidad significativa de su tiempo durante las primeras etapas del proyecto, ya que tuvo que buscar y analizar manualmente las fechas de inicio y finalización de cada director ejecutivo y los símbolos de cotización correspondientes. También habla sobre los desafíos de garantizar que los datos de precios sean precisos y limpios antes de analizarlos. A pesar del pequeño tamaño de la muestra, Karen siguió adelante con su estudio.

  • 00:10:00 En esta sección, Karen Rubin explica el proceso de su back test en el comercio algorítmico y cómo funciona la simulación en su estrategia. Ella simula su estrategia como si estuviera operando en el mercado real revisando datos históricos y tomando decisiones de compra y venta en función de su lista de directoras ejecutivas. Compara su primera versión del algoritmo con un punto de referencia que es el S&P 500. Sin embargo, luego reescribe su estrategia con la ayuda de su residente cuantitativo debido a que no consideró el apalancamiento en su estrategia anterior.

  • 00:15:00 En esta sección del video, Karen Rubin analiza cómo reequilibró su estrategia comercial para garantizar una cartera con el mismo peso en todas las empresas. Su algoritmo compra y vende empresas y calcula el valor de su cartera para garantizar que no pierda dinero ni tenga que pedir dinero prestado para realizar compras en el futuro. También analiza los comentarios que recibió de la comunidad de Reddit y Hacker News, quienes cuestionaron si su estrategia dependía de los precios de las acciones de Yahoo y Alibaba. Eliminó a Yahoo de su estrategia para probar esta teoría y descubrió que, si bien afectaba los rendimientos generales, no era la única causa de esos rendimientos.

  • 00:20:00 En esta sección, el orador analiza cómo evitar el sesgo sectorial mediante la creación de una cartera sectorial neutral. Al dividir el monto de la cartera por el número de sectores, cada empresa dentro de ese sector obtiene una cantidad igual de inversión. Por ejemplo, si Healthcare tiene tres empresas, su asignación se dividiría en tercios, mientras que Consumer Cyclical, que tiene aproximadamente 20 empresas, cada una obtendría una vigésima parte de la cantidad total asignada al sector. Los rendimientos resultantes de la estrategia del orador son del 275 por ciento, mientras que el punto de referencia de igual ponderación arroja un 251 por ciento y el S&P 500 arroja un 122 por ciento. Si bien algunos argumentan que los puntos de referencia como el S&P 500 no son filosóficamente precisos ya que sus empresas no tienen la misma ponderación, el índice RSP Guggenheim Equal Weight S&P 500 proporciona un mejor punto de referencia para fines de comparación.

  • 00:25:00 En esta sección, Karen Rubin analiza los desafíos de encontrar el punto de referencia correcto al invertir en mujeres directoras ejecutivas. Ella destaca que, si bien el punto de referencia de Fortune 1000 parece la opción correcta, comprar su lista histórica de constituyentes es costoso. En su lugar, crea el Quanto 1000, un nuevo punto de referencia clasificando todas las empresas por ingresos y seleccionando las 1000 principales. Al comparar los rendimientos de su algoritmo con el Quanto 1000 y el S&P 500, descubre que el algoritmo superó a los otros dos puntos de referencia con un 43 % diferencia. También explora un nuevo conjunto de datos de Event Fessor sobre los cambios de director ejecutivo, lo que le permite crear estrategias comparativas entre directores ejecutivos masculinos y femeninos. Los resultados muestran que una estrategia que invierte en mujeres CEO en la fecha en que ingresan a su cargo y se detiene en la fecha en que se van, rindió un 28 % durante un período de siete años, en comparación con los CEO masculinos, que generaron un 44 %.

  • 00:30:00 En esta sección, Karen detalla los resultados de su estudio sobre mujeres directoras ejecutivas en las empresas Fortune 1000. El análisis mostró que las directoras ejecutivas femeninas regresan en un 68 %, mientras que los directores ejecutivos masculinos regresan en un 47 %. Sin embargo, Karen cree que sus datos aún no muestran que las directoras ejecutivas estén superando a sus homólogos masculinos. Ella cree que este estudio proporciona una idea interesante sobre las directoras ejecutivas en empresas de altos ingresos y alta capitalización de mercado. Karen quiere fomentar la diversidad en la industria de las finanzas y la tecnología e invita a más mujeres a unirse al campo. Ella cree en la importancia de aportar ideas como invertir en directoras ejecutivas para crear un fondo diverso.

  • 00:35:00 En esta sección, el orador analiza varios factores que pueden influir en el éxito de los directores ejecutivos, incluido su género, contratación interna o externa y mes de nacimiento. También aborda la teoría de que las empresas incorporarán directoras ejecutivas cuando tengan un desempeño deficiente y luego las reemplazarán con directores ejecutivos masculinos para cosechar los beneficios de la reestructuración. Sin embargo, ella no ha podido arbitrar esta teoría. Además, señala que los precios de las acciones a menudo bajan después del anuncio de un director ejecutivo, pero no está segura de si esta tendencia es diferente para las directoras ejecutivas mujeres en comparación con los directores ejecutivos hombres. En general, hay muchos factores a considerar cuando se construye una estrategia comercial cuantitativa para los directores ejecutivos.
 

Seminario web sobre aprendizaje automático para operaciones cuantitativas con el Dr. Ernie Chan



Seminario web sobre aprendizaje automático para operaciones cuantitativas con el Dr. Ernie Chan

El Dr. Ernie Chan, una figura prominente en la industria financiera, comparte sus conocimientos y experiencias con el aprendizaje automático en el comercio. Comienza reflexionando sobre sus primeros intentos de aplicar el aprendizaje automático al comercio y reconoce que inicialmente no arrojó resultados exitosos. El Dr. Chan enfatiza la importancia de comprender las limitaciones del aprendizaje automático en el comercio, particularmente en el comercio de futuros e índices, donde los datos pueden ser insuficientes.

Sin embargo, destaca el potencial del aprendizaje automático para generar estrategias comerciales rentables cuando se aplica a acciones tecnológicas individuales, datos de libros de pedidos, datos fundamentales o fuentes de datos no tradicionales como noticias. Para abordar las limitaciones de la disponibilidad de datos y el sesgo de espionaje de datos, el Dr. Chan sugiere utilizar técnicas de remuestreo como sobremuestreo o embolsado. Estas técnicas pueden ayudar a expandir el conjunto de datos, pero es fundamental preservar la autocorrelación serial en los datos de series temporales cuando se usan para estrategias comerciales.

La selección de características juega un papel vital en el éxito de las aplicaciones de aprendizaje automático en el comercio. El Dr. Chan destaca la importancia de reducir el sesgo de muestreo de datos mediante la selección de características o predictores relevantes. Explica que si bien muchas personas creen que tener más funciones es mejor, en el comercio, un conjunto de datos rico en funciones puede conducir a una autocorrelación falsa y resultados deficientes. Habla de tres algoritmos de selección de características: selección directa de características, árboles de clasificación y regresión (CART) y bosque aleatorio, que ayudan a identificar las variables más predictivas.

El Dr. Chan profundiza en el algoritmo de clasificación de las máquinas de vectores de soporte (SVM), cuyo objetivo es predecir los rendimientos futuros de un día y su naturaleza positiva o negativa. SVM encuentra un hiperplano para separar puntos de datos y puede requerir transformaciones no lineales para una separación efectiva. También aborda otros enfoques de aprendizaje automático, como las redes neuronales, pero destaca sus limitaciones para capturar características relevantes y su inadecuación para el comercio debido a la naturaleza no estacionaria de los mercados financieros.

El seminario web también enfatiza la importancia de una función objetivo personalizada en una estrategia comercial. El Dr. Chan recomienda técnicas como la regresión por pasos, los árboles de decisión y la regresión por conjuntos para desarrollar modelos predictivos. Subraya la importancia de reducir la raíz cuadrada del número de transacciones para lograr una alta precisión en la protección de los rendimientos. El índice de Sharpe se presenta como un punto de referencia efectivo para evaluar la efectividad de la estrategia, con un índice de dos o más considerado favorable.

El Dr. Chan brinda información valiosa sobre la aplicación del aprendizaje automático en la industria financiera, destacando su potencial en ciertas áreas y advirtiendo sobre sus limitaciones. Él enfatiza la importancia de la selección de funciones, el remuestreo de datos y la selección de una función de destino adecuada para aplicaciones exitosas de aprendizaje automático en el comercio cuantitativo.

  • 00:00:00 En esta sección, el Dr. Ernie Chan comparte sus antecedentes y experiencias con el aprendizaje automático en la industria financiera. Habla de cómo no logró aplicar el aprendizaje automático al comercio a pesar de su experiencia en el campo y de trabajar para firmas conocidas. El Dr. Chan comparte que el objetivo de la charla es explicar las trampas del aprendizaje automático y por qué no funciona en el comercio, así como también cómo puede funcionar en el comercio. Él señala que cuando comenzó a usar el aprendizaje automático en el comercio, cometió el error de pensar que funcionaría en barras diarias y usar indicadores técnicos como entradas, lo que finalmente no arrojó resultados exitosos.

  • 00:05:00 En esta sección, el Dr. Ernie Chan analiza las limitaciones del uso de algoritmos de aprendizaje automático en el comercio de futuros e índices debido a la insuficiencia de datos y el riesgo de sesgo de espionaje de datos. Él cree que el aprendizaje automático tiene más potencial para generar estrategias comerciales rentables cuando se aplica a acciones tecnológicas individuales, datos de libros de pedidos, datos fundamentales o datos no tradicionales como noticias. Para superar la limitación de datos insuficientes y el sesgo de espionaje de datos, el Dr. Chan sugiere utilizar técnicas de remuestreo, como sobremuestreo o embolsado. Si bien el remuestreo puede expandir el conjunto de datos, se debe prestar especial atención para preservar la autocorrelación serial en los datos de series temporales cuando se utilizan estas técnicas para estrategias comerciales.

  • 00:10:00 En esta sección, el Dr. Chan analiza el uso de trigramas en el aprendizaje automático, que permite el uso de varios días como entrada en lugar de un solo día para preservar la autocorrelación. También enfatiza la importancia de reducir el sesgo de muestreo de datos, lo que se puede lograr al reducir la cantidad de características o predictores. Si bien muchas personas piensan que tener más funciones es mejor, ese no es el caso en el comercio, ya que un conjunto de datos rico en funciones es una maldición debido a la autocorrelación espuria entre las funciones y el objetivo. Por lo tanto, la selección de funciones es fundamental, y los algoritmos de aprendizaje automático que admiten la selección de funciones son ideales para el comercio. El Dr. Chan destaca tres algoritmos de este tipo, que incluyen la regresión por pasos, los bosques aleatorios y la regresión LASSO. Advierte que las redes neuronales y los algoritmos de aprendizaje profundo, que no seleccionan características sino que toman todo y lo mezclan, no son ideales para el comercio.

  • 00:15:00 En esta sección, el Dr. Ernie Chan analiza tres algoritmos de selección de características diferentes: selección directa de características, árboles de clasificación y regresión (CART) y bosque aleatorio. La selección directa de funciones implica agregar funciones a los modelos de regresión lineal de una en una hasta que el algoritmo identifique cuáles mejoran la previsibilidad. Por otro lado, CART es similar a un árbol de decisión y opera jerárquicamente con condiciones impuestas en cada iteración con fines de clasificación. Random forest es una técnica que se puede aplicar a diferentes algoritmos de clasificación mediante la combinación de embolsado con subespacio aleatorio, lo que implica el sobremuestreo de datos y el submuestreo de predictores para lograr un equilibrio entre datos y características. El Dr. Chan proporciona una tabla de ejemplo con características hipotéticas para predecir el retorno de mañana a fin de explicar mejor el concepto.

  • 00:20:00 En esta sección, el Dr. Ernie Chan analiza el proceso de reducción del conjunto de características utilizando algoritmos de clasificación como árboles de regresión de clasificación. Explica que existen muchas técnicas para ello, como el submuestreo o el uso de información mutua. Sin embargo, afirma que estas técnicas son las más sencillas y conocidas. Usando una muestra representativa de los datos, demuestra cómo funciona el algoritmo al identificar qué indicadores técnicos son útiles para predecir rendimientos futuros y qué valores de estos indicadores generarán rendimientos positivos o negativos. Una vez que se clasifica un subconjunto de datos, se reitera el proceso para identificar otras variables para una mejor clasificación.

  • 00:25:00 En esta sección, el Dr. Ernie Chan explica que los algoritmos de aprendizaje automático funcionan encontrando variables predictivas y parámetros útiles para el clasificador, e iterando hasta que no se encuentra significación estadística. Los algoritmos de aprendizaje automático suelen ser sistemas de regresión estadística con más detalles y condiciones en los datos. Continúa discutiendo el algoritmo de clasificación de las máquinas de vectores de soporte, cuyo objetivo es predecir los rendimientos futuros de un día y si serán positivos o negativos. El algoritmo intenta encontrar un hiperplano para cortar los datos, pero a menudo se requiere una transformación no lineal para encontrar una separación. Esta transformación es fundamental para que la máquina de vectores de soporte funcione de manera efectiva.

  • 00:30:00 En esta sección, el Dr. Chan analiza la necesidad de volver a muestrear los datos si no hay suficientes datos para que los aprenda el algoritmo de aprendizaje automático, aunque la cantidad necesaria es relativa a la cantidad de predictores que hay. Describe cómo las máquinas de vectores de soporte son una forma de clasificar los datos y, aunque es menos un algoritmo de selección de características que la regresión paso a paso o el árbol de clasificación, la SVM encuentra un hiperplano que puede atravesar cualquier dimensión. Señala que las redes neuronales son una ecuación no lineal y ajustan los datos con una función lineal enorme en lugar de usar una función lineal como en la regresión y que el aprendizaje profundo es simplemente una red neuronal con muchas capas pero muy pocos nodos por capa. es más fácil capturar características en etapas.

  • 00:35:00 En esta sección, el Dr. Ernie Chan analiza el concepto de usar una red neuronal para el comercio cuantitativo. Explica que una red neuronal es una herramienta poderosa porque puede aproximar cualquier función no lineal y es capaz de predecir el rendimiento de mañana dadas las variables de hoy. Sin embargo, también señala que la red neuronal no funciona bien en el comercio porque los mercados financieros no son estacionarios y es difícil capturar características relevantes utilizando este enfoque. Él enfatiza que la red neuronal usa todas las entradas y no selecciona características, lo que dificulta encontrar variables que tengan un efecto causal en el mercado.

  • 00:40:00 En esta sección, el Dr. Ernie Chan explica cuándo el aprendizaje automático es útil para los comerciantes. El aprendizaje automático es útil cuando los comerciantes carecen de intuición sobre sus datos o el mercado, o si no tienen un modelo matemático de sus datos. Además, el aprendizaje automático puede ayudar a los comerciantes a desarrollar la intuición cuando hay demasiadas funciones o cuando no saben qué funciones son importantes. Sin embargo, si los comerciantes tienen una buena intuición y un modelo matemático simple, es mejor que construyan modelos simples en lugar de usar el aprendizaje automático. Los comerciantes también deben tener cuidado al usar el aprendizaje automático si tienen muy pocos datos o si ha habido cambios de régimen en su mercado porque un modelo de mercado deficiente puede conducir a algoritmos que se desmoronan cuando hay un cambio de régimen.

  • 00:45:00 En esta sección del seminario web, el Dr. Ernie Chan explica la importancia de usar datos estacionarios al aplicar técnicas de aprendizaje automático en el comercio cuantitativo. Señala que se pueden usar muchas pruebas estadísticas y técnicas para determinar la estacionariedad de un conjunto de datos, pero los resultados a menudo pueden ser ambiguos. El Dr. Chan también analiza su escepticismo hacia la efectividad del aprendizaje por refuerzo y el aprendizaje profundo en el comercio debido a la falta de replicación exitosa fuera de la muestra. Además, enfatiza la necesidad de una función objetivo personalizada en una estrategia comercial y sugiere el uso de técnicas como la regresión por conjuntos o árboles de decisión para el modelado predictivo.

  • 00:50:00 En esta sección, el Dr. Ernie Chan analiza la selección de la función objetivo en el aprendizaje automático para el comercio cuantitativo y explica que la disponibilidad de datos determina la selección de la función objetivo. Si la función objetivo es un rendimiento de un mes, los rendimientos diarios se convierten en la entrada y la selección de la variable objetivo debe coincidir con la escala de tiempo de la variable predictora. El Dr. Chan también explica la diferencia entre Adam y los métodos de aprendizaje profundo, afirmando que el aprendizaje profundo es menos bueno en la selección de funciones. Además, la sección se sumerge en la definición de diferentes regímenes y cómo se pueden definir en función de sus criterios preferidos. Por último, el Dr. Chan enfatiza que el número de transacciones en el comercio cuantitativo no es el factor determinante para el éxito.

  • 00:55:00 En esta sección, el Dr. Ernie Chan analiza cómo reducir la raíz cuadrada de n a un número manejable es crucial para lograr una alta precisión en la protección del retorno. Explica que el error es proporcional a la raíz cuadrada del número de transacciones, y el índice de Sharpe es una excelente medida de significancia estadística ya que incorpora este concepto en su construcción. Se considera que una estrategia con una relación de Sharpe de dos o más funciona de manera efectiva. Aunque la última pregunta mencionada por Christophe puede ser demasiado técnica, el Dr. Chan cree que el índice de Sharpe es un buen punto de referencia para la eficacia de la estrategia.
Razón de la queja: