Comercio Cuantitativo - página 21

 

Estrategias comerciales de alta frecuencia



Estrategias comerciales de alta frecuencia

Gracias por invitarme hoy a presentar mi artículo sobre estrategias comerciales de alta frecuencia. Mi nombre es Amy Kwan y soy de la Universidad de Sydney. Este documento está escrito en colaboración con Michael Goldstein de Babson College y Richard Phillip, también de la Universidad de Sydney.

El propósito de este documento es contribuir al debate en curso entre los reguladores, los participantes del mercado y los académicos sobre el impacto del comercio de alta frecuencia (HFT) en los mercados financieros. Hemos escuchado diferentes perspectivas sobre este asunto, incluida la presentación de Sean y la discusión de anoche.

Si bien existen diversas opiniones sobre HFT, algunas personas, como Michael Lewis, el autor del libro "Flash Boys", argumentan que el mercado de valores de EE. UU. se ha convertido en un sistema de clases basado en la velocidad, donde unos pocos privilegiados pagan por nanosegundos de ventaja mientras otros siguen sin darse cuenta del valor de estos pequeños intervalos de tiempo. Por otro lado, los defensores de HFT, como Ray Katsuyama, afirman que los HFT pueden captar señales comerciales y aprovecharse de los inversores habituales.

La evidencia académica temprana generalmente apoyó HFT y el comercio algorítmico, ya que se creía que aumentaba la liquidez y mejoraba las medidas tradicionales de calidad del mercado, como la disminución de los diferenciales, el aumento de la profundidad y la reducción de la volatilidad a corto plazo. Sin embargo, estudios más recientes han encontrado algunos aspectos negativos de HFT. Por ejemplo, los HFT pueden anticipar el flujo de pedidos de otros inversores y extraer rentas de las fuerzas del mercado.

Además, estudios recientes, como los de Banker, Blending, Courageous y Canorkey, indican que los HFT inicialmente se negocian contra el viento, pero luego se negocian con el viento a medida que avanza una gran operación. Para ilustrar esto, consideremos un escenario en el que un gran fondo de pensiones quiere comprar acciones de Apple. Los HFT, al detectar este comercio, pueden competir con la institución para operar en la misma dirección, ya que anticipan el aumento futuro del precio debido a la presión de compra.

Aunque existe cierta comprensión de los efectos de HFT, la literatura sigue sin estar clara acerca de cómo los HFT realmente comercian e influyen en los mercados financieros. La mayor parte de la evidencia existente se basa en ejecuciones comerciales y se sabe poco sobre el comportamiento de envío de órdenes en Australia.

Para abordar esta brecha, nuestro estudio examina directamente las estrategias comerciales de HFT mediante el análisis de los datos completos del libro de órdenes de límite. Tenemos acceso a información detallada sobre envíos de pedidos, modificaciones, cancelaciones y transacciones de las 100 acciones principales en ASX. Al clasificar a los comerciantes en empresas HFT, comerciantes institucionales y corredores minoristas, nuestro objetivo es comprender su comportamiento y el impacto en la dinámica del mercado.

Nuestros principales hallazgos revelan que los HFT se destacan en el seguimiento del libro de pedidos y en la negociación de desequilibrios. Cuando hay una mayor demanda para comprar o vender una acción, los HFT tienen más éxito en capitalizar esta información en comparación con otras categorías de comerciantes. Además, observamos que los HFT proporcionan liquidez en el lado fijo del libro de pedidos, incluso cuando no es necesario, mientras que los que no son HFT sufren un acceso limitado al libro de pedidos debido al comportamiento comercial estratégico de los HFT.

También examinamos la introducción de una fuente de datos más rápida llamada "eso" y descubrimos que los HFT se vuelven aún más efectivos en su negociación estratégica después de su implementación. Sin embargo, las órdenes que no son HFT se desplazan del libro de órdenes limitadas, lo que reduce las posibilidades de ejecución exitosa para estos operadores.

En conclusión, nuestro estudio contribuye a la comprensión de las estrategias comerciales de HFT mediante el análisis de los datos completos del libro de órdenes de límite. Descubrimos que los HFT superan a otras categorías de comerciantes en el seguimiento del libro de pedidos y en la negociación de desequilibrios. La introducción de una fuente de datos más rápida mejora aún más su ventaja comercial. Estos hallazgos arrojan luz sobre cómo los HFT influyen en la dinámica del mercado y brindan información valiosa para los reguladores, los participantes del mercado y los académicos.

Gracias nuevamente por la oportunidad de presentar nuestra investigación.

 

Ciamac Moallemi: Trading de alta frecuencia y microestructura de mercado



Ciamac Moallemi: Trading de alta frecuencia y microestructura de mercado

Parte del propósito de mi presentación es familiarizar a las personas con la investigación realizada por los profesores. Antes de profundizar en el tema principal, me gustaría brindar algunos antecedentes sobre mi propio trabajo como matemático aplicado. Aproximadamente la mitad de mi tiempo lo dedico a explorar problemas de control estocástico, que implican tomar decisiones a lo largo del tiempo en presencia de incertidumbre. Estos problemas matemáticos abstractos plantean desafíos significativos pero son fundamentales, ya que muchos problemas de ingeniería y comerciales comparten características similares. La otra mitad de mi investigación se centra en el aspecto más aplicado de los problemas de control estocástico en el campo de la ingeniería financiera.

Basándome en mi experiencia previa como administrador de fondos de cobertura, tengo un interés particular en el comercio óptimo, la microestructura del mercado y el comercio de alta frecuencia en los mercados financieros. Hoy, discutiré estos temas para brindar información sobre las complejidades de los mercados electrónicos modernos. Para apreciar los temas en cuestión, es fundamental comprender las características principales de los mercados de valores estadounidenses, que han evolucionado significativamente durante los últimos cinco a diez años.

En primer lugar, el comercio electrónico domina el mercado, lo que hace que la imagen tradicional de los comerciantes en el piso de la Bolsa de Valores de Nueva York sea en gran medida irrelevante. El comercio ahora se lleva a cabo principalmente en computadoras, siendo el comercio electrónico el mecanismo principal para el intercambio. Otro cambio notable es la descentralización o fragmentación del comercio. En el pasado, una acción en particular cotizaba predominantemente en el Nasdaq o en la Bolsa de Valores de Nueva York. Sin embargo, ahora hay múltiples intercambios, cada uno de los cuales representa un porcentaje sustancial del comercio de acciones.

Estos intercambios están organizados como libros electrónicos de órdenes limitadas, donde los participantes del mercado pueden enviar órdenes de compra y venta con precios específicos. Cuando los precios se cruzan, se ejecutan las operaciones. Esto contrasta con el mercado de intermediarios histórico o la estructura del mercado especializado de la Bolsa de Valores de Nueva York. Además, alrededor del 30% de las operaciones se realizan en lugares alternativos, como redes de cruce electrónico, grupos oscuros e internalización, lo que contribuye aún más a la naturaleza descentralizada de la negociación.

Una de las características más llamativas de los mercados modernos es la creciente automatización de los participantes. Anteriormente, un comerciante humano manejaba grandes pedidos, pero ahora los algoritmos y el comercio de alta frecuencia se han hecho cargo. El comercio algorítmico permite a los inversores dividir grandes pedidos a lo largo del tiempo y entre los intercambios, mientras que los comerciantes de alta frecuencia, a menudo categorizados como creadores de mercado, brindan liquidez. Estas tendencias recientes han hecho que el mercado sea más complejo y han dado lugar a interacciones impredecibles entre los comerciantes algorítmicos y los comerciantes de alta frecuencia.

Estos desarrollos han planteado cuestiones importantes tanto a nivel de políticas como para los participantes individuales. Los formuladores de políticas y los reguladores deben evaluar los beneficios y los inconvenientes de la compleja estructura de mercado actual. También deben abordar cuestiones como la ocurrencia de eventos como el famoso flash crash del 6 de mayo de 2010, donde los precios del mercado cayeron significativamente en cuestión de minutos debido a una interacción patológica entre un comerciante algorítmico y comerciantes de alta frecuencia.

A nivel de participante individual, es necesario abordar los problemas de toma de decisiones. Dada la complejidad e imprevisibilidad del mercado, los participantes deben determinar el enfoque más efectivo para sus estrategias comerciales. Es dentro de este contexto que realicé investigaciones sobre dos problemas específicos relacionados con el comercio de alta frecuencia y la microestructura del mercado: comprender la importancia de la latencia y examinar el papel de los grupos oscuros en los mercados.

La latencia se refiere al retraso entre la toma de una decisión comercial y su ejecución. La capacidad de operar rápidamente con baja latencia se ha vuelto cada vez más importante. Para evaluar el valor y el costo asociado con la latencia, es necesario evaluar su importancia en las decisiones comerciales. A lo largo de los años, la latencia en los mercados bursátiles de EE. UU. ha disminuido drásticamente, y ahora las operaciones se realizan en microsegundos. Este avance tecnológico ha sido impulsado por la demanda de los comerciantes de alta frecuencia y otros que buscan una ejecución más rápida.

Comprender la importancia de la latencia plantea más preguntas. ¿Es beneficiosa la baja latencia para tomar decisiones con la información más reciente? ¿Ser más rápido que los competidores proporciona una ventaja en la captura de ganancias? Además, las reglas y la organización de los intercambios a menudo dan prioridad a la entrada anticipada, creando ventajas para los comerciantes con conexiones de menor latencia. Esto plantea preocupaciones sobre la equidad y la igualdad de acceso a las oportunidades del mercado.

Para abordar estas preguntas, mi investigación involucra el desarrollo de modelos matemáticos que capturan la dinámica del comercio de alta frecuencia y el impacto de la latencia en las estrategias comerciales. Al simular diferentes escenarios y analizar los resultados, mi objetivo es brindar información sobre el equilibrio óptimo entre velocidad y precisión en las decisiones comerciales. Esta investigación puede ayudar a los participantes del mercado, como los fondos de cobertura o los inversores institucionales, a diseñar sus algoritmos comerciales e infraestructura para maximizar su rendimiento en un entorno altamente competitivo.

Otra área de mi investigación se centra en el papel de los dark pools en los mercados modernos. Los dark pools son lugares de negociación privados que permiten a los participantes ejecutar grandes transacciones de forma anónima, lejos del mercado público. Estos lugares alternativos han ganado popularidad debido a su potencial para minimizar el impacto en el mercado y mejorar la calidad de la ejecución para inversores institucionales con volúmenes de negociación significativos.

Sin embargo, el auge de los dark pools ha suscitado preocupaciones sobre la transparencia y la equidad del mercado. Los críticos argumentan que la falta de transparencia en estos lugares puede crear asimetría de información e impactar negativamente en el descubrimiento de precios. Además, ha habido casos en los que los comerciantes de alta frecuencia explotan la falta de transparencia previa a la negociación en los grupos oscuros para su propio beneficio.

En mi investigación, investigo el impacto de los dark pools en la liquidez del mercado, la formación de precios y el comportamiento de los participantes del mercado. Mediante el desarrollo de modelos matemáticos y la realización de análisis empíricos, mi objetivo es comprender los beneficios y los inconvenientes asociados con el comercio de fondos oscuros. Esta investigación puede contribuir al debate en curso sobre la regulación y supervisión de los fondos oscuros y ayudar a los participantes del mercado a tomar decisiones informadas sobre sus estrategias comerciales.

En conclusión, mi presentación de hoy brinda una descripción general de mi investigación en el campo de la ingeniería financiera, centrándose específicamente en el comercio de alta frecuencia, la microestructura del mercado, la latencia y los dark pools. Al profundizar en estos temas, pretendo arrojar luz sobre las complejidades de los mercados electrónicos modernos y los desafíos que presentan para los participantes del mercado y los reguladores. A través de modelos matemáticos, simulaciones y análisis empíricos, mi investigación tiene como objetivo proporcionar información valiosa y contribuir a los debates y desarrollos en curso en el campo de los mercados financieros.

Además, otro aspecto de mi investigación gira en torno al impacto de las políticas regulatorias en los mercados financieros. Los organismos reguladores juegan un papel crucial para garantizar la integridad del mercado, la estabilidad y la protección de los inversores. Sin embargo, el diseño y la implementación de regulaciones pueden tener consecuencias no deseadas y afectar la dinámica del mercado.

Un área de enfoque en mi investigación es el examen de las reacciones del mercado a los anuncios regulatorios. Mediante el análisis de datos históricos y la realización de estudios de eventos, investigo cómo los participantes del mercado, como comerciantes e inversores, ajustan sus estrategias y posiciones en respuesta a los cambios regulatorios. Esta investigación ayuda a comprender los efectos inmediatos y a largo plazo de las regulaciones sobre la liquidez, la volatilidad y la eficiencia general del mercado.

Además, exploro la efectividad de diferentes medidas regulatorias para lograr los objetivos previstos. Por ejemplo, estudio el impacto de los interruptores automáticos, que son mecanismos diseñados para detener temporalmente el comercio durante movimientos extremos del mercado, en la estabilidad del mercado. Mediante el análisis de datos históricos del mercado y la realización de simulaciones, evalúo si los disyuntores previenen o exacerban efectivamente las caídas del mercado.

Otra área de interés es el examen de las regulaciones destinadas a reducir el riesgo sistémico en los mercados financieros. Esto implica analizar el impacto de medidas como los requisitos de capital, las pruebas de estrés y las restricciones a la negociación por cuenta propia de los bancos. Al estudiar los efectos de estas regulaciones en la estabilidad del sistema financiero, mi objetivo es brindar información sobre su efectividad y posibles consecuencias no deseadas.

Además, también exploro la intersección de la tecnología y la regulación, particularmente en el contexto de tecnologías emergentes como blockchain y criptomonedas. Estas tecnologías presentan desafíos y oportunidades únicos para los reguladores, ya que pueden alterar los sistemas financieros tradicionales e introducir nuevos riesgos. Mi investigación en esta área se centra en comprender las implicaciones regulatorias de estas tecnologías y explorar marcos potenciales que pueden fomentar la innovación al tiempo que garantizan la integridad del mercado y la protección de los inversores.

Mi investigación en ingeniería financiera abarca una amplia gama de temas, incluido el impacto de las políticas regulatorias, las reacciones del mercado a los cambios regulatorios y la intersección de la tecnología y la regulación. A través de análisis rigurosos, modelos matemáticos y estudios empíricos, me esfuerzo por brindar información valiosa sobre el funcionamiento de los mercados financieros y contribuir al desarrollo de marcos regulatorios efectivos y bien informados.

 

Kent Daniel: Impulso del precio



Kent Daniel: Impulso del precio

Estoy contento de estar aquí y me gustaría agradecer a todos por venir. Es genial ver a todos tan entusiasmados con este tema. Hoy, discutiré una estrategia cuantitativa específica comúnmente utilizada por los fondos de cobertura. Esta estrategia a menudo se implementa con un apalancamiento significativo y complementa los temas que la profesora Sunnah Reyes y el profesor Wong han estado abordando. Mi objetivo es presentar el concepto de inversión cuantitativa y proporcionar información sobre esta estrategia en particular.

Además, estoy realizando una investigación para comprender los factores detrás del impulso de los precios y la ocurrencia de este fenómeno en los mercados. Argumento que el mercado no es del todo eficiente, principalmente debido al procesamiento imperfecto de la información por parte de los inversores. Por lo tanto, profundizaré en la caracterización del impulso y ofreceré algunas reflexiones sobre sus causas subyacentes.

Recientemente, encontré un artículo en la revista Bloomberg que presenta a Cliff Asness, una figura notable en la industria. Su firma ha enfrentado desafíos en el pasado, principalmente debido al impulso. Encuentro esto particularmente relevante para nuestra discusión de hoy. De hecho, Asness y su compañía no han renunciado al impulso. Incluso han lanzado un fondo mutuo llamado AQR Momentum Fund, además de sus esfuerzos de fondos de cobertura.

AQR, tanto con sus fondos mutuos como con sus fondos de cobertura, emplea reglas matemáticas para construir carteras diversificadas con un sesgo específico. En el caso del impulso, se enfocan en invertir en ganadores y vender perdedores. Hoy exploraré esta estrategia con mayor detalle. Sin embargo, antes de profundizar en los detalles, quiero compartir algunas ideas de un trabajo de investigación de Asness, Moskowitz y Patterson. El documento investiga la presencia de impulso en diferentes clases de activos.

Según sus hallazgos, históricamente el impulso se ha desempeñado bien en varias regiones, incluidos los Estados Unidos, el Reino Unido y Europa continental. Sin embargo, no arrojó los mismos resultados positivos en Japón. Además, la investigación explora el impulso en la selección de países de renta variable, selección de países de bonos, moneda extranjera y materias primas, con diversos grados de éxito en cada área.

Entonces, ¿qué impulsa el impulso? Basándome en mi trabajo y teorías preliminares, la explicación más convincente gira en torno al procesamiento de la información por parte de los inversores. Cuando los inversores reciben nueva información, tienden a mostrar un sesgo de statu quo, asumiendo que las cosas permanecerán relativamente sin cambios. Si bien anticipan algún movimiento de precios en respuesta a la información, no comprenden completamente su impacto. En consecuencia, el precio se mueve ligeramente, pero toma tiempo, a menudo alrededor de un año, para que la información se refleje completamente en los precios.

En el contexto de los mercados financieros, si observa un movimiento de precios vinculado a la información, es probable que el impulso continúe. Esta persistencia en el movimiento de precios se alinea con el concepto de impulso en la física, donde un objeto que se mueve a cierta velocidad en una dirección particular tiende a seguir moviéndose a menos que una fuerza externa actúe sobre él.

Ahora, exploremos cómo construir una estrategia de impulso. Suponga que desea implementar una estrategia de impulso simple similar al enfoque de AQR. Aquí hay una guía paso a paso: comenzando al comienzo de un mes específico, calcule los rendimientos mensuales de todas las acciones que cotizan en NYSE, Amex y NASDAQ durante los últimos 12 meses hasta hace un mes. Clasifique las acciones según sus rendimientos e identifique el 10% superior como ganadores y el 10% inferior como perdedores. Construya una cartera que incluya a los ganadores, ponderados por su capitalización de mercado. Del mismo modo, establezca una cartera larga-corta vendiendo en corto $1 de las acciones perdedoras. Reequilibre la cartera al comienzo de cada mes actualizando los rendimientos y clasificaciones del período de formación.

Esta estrategia da como resultado una cartera de rotación relativamente baja, ya que es probable que los rendimientos recientes sean similares. Sin embargo, a medida que extiende el marco de tiempo a 12 meses, los rendimientos comienzan a divergir significativamente.

Ahora, evalúemos el desempeño de esta estrategia desde 1949 hasta 2007. Invertir en bonos del Tesoro promedia un exceso de rendimiento de 16.5% por año, que es bastante sustancial. Esto indica que la estrategia de impulso de comprar ganadores y vender perdedores ha sido muy rentable a largo plazo.

Ahora, quizás se pregunte si este exceso de rendimiento es constante en diferentes períodos de tiempo. Para examinar esto, dividamos los datos en diferentes décadas y veamos cómo se comporta el impulso. Aquí están los rendimientos excedentes para cada década:

  • Década de 1950: 13,5%
  • 1960: 14,7%
  • Década de 1970: 14,3%
  • Década de 1980: 13,7%
  • Década de 1990: 9,4%
  • Década de 2000: 13,1%

Como puede ver, el impulso ha generado un exceso de rendimiento positivo en cada década, aunque la magnitud varía. Vale la pena señalar que la década de 1990 tuvo un exceso de rendimiento relativamente más bajo en comparación con otras décadas, pero aún así fue positivo.

Entonces, ¿por qué el impulso persiste como una estrategia rentable? Una explicación es que los inversores tienden a reaccionar de forma insuficiente ante la nueva información, lo que hace que los precios se ajusten lentamente. Como resultado, las acciones que han experimentado rendimientos positivos siguen teniendo un rendimiento superior porque sus precios no han reflejado completamente toda la información disponible. Este ajuste retrasado brinda una oportunidad para que los inversores obtengan ganancias aprovechando el impulso.

Es importante mencionar que, si bien el impulso ha mostrado una rentabilidad constante, no significa que esté libre de riesgos. Como cualquier estrategia de inversión, viene con su propio conjunto de riesgos y desafíos. Las condiciones del mercado pueden cambiar y el rendimiento pasado no es garantía de resultados futuros. Por lo tanto, el análisis exhaustivo, la gestión de riesgos y el monitoreo continuo son cruciales al implementar un enfoque de inversión basado en el impulso.

En conclusión, la estrategia de impulso, que implica comprar ganadores y vender perdedores, ha generado históricamente un exceso de rendimiento significativo en los mercados financieros. A pesar de las variaciones en los rendimientos a lo largo de las diferentes décadas, el impulso sigue siendo una estrategia rentable en general. Sin embargo, los inversores deben tener cuidado y considerar varios factores antes de incorporar esta estrategia en su enfoque de inversión.

 

Comercio algorítmico y aprendizaje automático



Comercio algorítmico y aprendizaje automático

Vale, gracias, Costas, por recibirme. También me gustaría expresar mi gratitud a Eric por su charla perspicaz, que proporciona un contexto valioso para la discusión que presentaré. Hoy me centraré en las experiencias de operar en el otro lado de estos intercambios y tratar con comerciantes de alta frecuencia (HFT) y otras contrapartes. Quiero aclarar que mi charla no cubrirá explícitamente la teoría de juegos, ya que Costas me aseguró que es aceptable. Sin embargo, profundizaré en los aspectos prácticos, basándome en mi experiencia trabajando con un grupo de comercio cuantitativo en Wall Street durante los últimos 12 años.

En primer lugar, me gustaría extender un agradecimiento especial a mi socio comercial, By Vaca, quien es coautor de todo el trabajo que discutiré. Nuestra investigación y conocimientos han surgido de contextos comerciales patentados dentro de nuestro grupo comercial. Los aspectos que destacaré son los elementos no patentados que encontramos científicamente interesantes a lo largo del tiempo.

Wall Street es sin duda un lugar intrigante, tanto tecnológica como socialmente. Ha sido testigo de cambios significativos debido a la automatización y la abundancia de datos. Estas transformaciones han dado lugar a numerosos desafíos comerciales, que requieren un enfoque basado en el aprendizaje, en particular el aprendizaje automático. Con grandes cantidades de datos disponibles a una escala temporal y espacial más allá de la comprensión humana, los algoritmos se han vuelto indispensables en el comercio. Estos algoritmos deben ser adaptables y entrenados en datos históricos, incluidos datos recientes, para tomar decisiones comerciales sensatas.

En mi presentación, describiré tres áreas problemáticas específicas que surgen en el comercio algorítmico dentro de los mercados electrónicos modernos. Estas viñetas o estudios de casos arrojan luz sobre los desafíos algorítmicos y ofrecen sugerencias para abordarlos utilizando nuevas técnicas.

Los dos primeros problemas giran en torno a la ejecución optimizada. Al ejecutar una operación, ya sea comprando o vendiendo un volumen específico de acciones, existe un equilibrio entre la inmediatez y el precio. Uno puede optar por ejecutar el comercio rápidamente, impactando los precios pero posiblemente capitalizando ventajas informativas fugaces. Por otro lado, se puede adoptar un enfoque más pausado, lo que permite que el mercado converja al precio deseado durante un período más largo. Profundizaré en estas compensaciones y presentaré instancias específicas que demuestran los desafíos que enfrentan los mercados electrónicos.

El tercer problema se refiere a las versiones algorítmicas de la optimización de cartera clásica, como la optimización de la varianza media. Esto implica tener una cartera diversificada que maximice los rendimientos teniendo en cuenta el riesgo o la volatilidad. Aunque de naturaleza algorítmica, este problema se conecta con los enfoques tradicionales de optimización de cartera.

Vale la pena señalar que la subasta continua de órdenes limitadas dobles, como la describió anteriormente Eric, sirve como telón de fondo para estos desafíos. La imagen del flash crash y el libro de Michael Lewis sobre el comercio de alta frecuencia subrayan los tiempos interesantes y dinámicos que vivimos actualmente en Wall Street. Si bien no tengo la intención de emitir un juicio moral sobre ninguna actividad comercial, incluida la negociación de alta frecuencia, mi objetivo es dilucidar los desafíos algorítmicos que enfrentan los mercados electrónicos modernos desde la perspectiva de un grupo de negociación cuantitativa que opera dentro de un marco de negociación de acciones estadístico tradicional.

Nuestro grupo de negociación se especializa en la negociación de acciones, tanto largas como cortas, y abarca una amplia gama de instrumentos líquidos en los mercados nacionales e internacionales. Para cubrir nuestras posiciones, empleamos exclusivamente futuros, evitando derivados complejos. A pesar de negociar en mercados e instrumentos relativamente simples, la creciente automatización y disponibilidad de datos en Wall Street ha introducido una multitud de problemas comerciales que requieren un enfoque de aprendizaje, a menudo empleando el aprendizaje automático.

Por cierto, quiero decir que un ejemplo de esto es que a menudo se observa que cuando un analista mejora su opinión sobre una acción, otros analistas tienden a mejorar su opinión sobre la misma acción en rápida sucesión. Por lo tanto, es necesario determinar si se trata de una noticia nueva o simplemente el resultado de la entrada en el mercado de otras noticias básicas. En tales casos, puede que no sea aconsejable operar con base en esta información.

Ahora, con respecto a su pregunta sobre por qué no dedicamos tiempo a las preguntas al final y, en cambio, queremos comprar el volumen restante, hay dos respuestas. En primer lugar, si somos una casa de bolsa como Bank of America con una mesa de negociación algorítmica, ejecutamos operaciones según las instrucciones del cliente. Nos dan instrucciones sobre cuántas acciones comprar en un período de tiempo específico. No pedimos confirmación durante el proceso. En segundo lugar, hemos optimizado nuestras estrategias para determinar el volumen adecuado de compra en función de la información disponible. Este volumen suele ser el máximo que podemos negociar sin afectar significativamente el precio de la acción. Si bien es posible implementar el enfoque que sugirió, preferimos minimizar la cantidad de parámetros involucrados para simplificar la toma de decisiones en el complejo mundo del comercio.

Con respecto al proceso de prueba, realizamos pruebas en vivo durante los seis meses posteriores al estudio. Esto nos permite evaluar el rendimiento del modelo en condiciones reales de mercado. Sin embargo, el propio modelo utiliza datos históricos durante la fase de prueba.

Cuando se trata de explicar nuestras políticas a las personas, nos basamos principalmente en un enfoque empírico en lugar de mirar a simple vista. En este problema particular, está claro lo que constituye un comportamiento sensato. El desafío surge cuando se trata de estrategias que funcionan bien sin una comprensión clara de por qué funcionan. En tales casos, a veces abordamos el problema desde una perspectiva antropológica, tratando de comprender las razones detrás de la rentabilidad constante de ciertos oficios.

Reconocemos que la complejidad de lo que aprendemos plantea desafíos en términos de interpretación. Si bien podemos identificar un poder predictivo consistente en ciertas variables de estado, comprender las razones subyacentes a nivel granular es extremadamente difícil. La naturaleza microestructural de los mercados financieros, especialmente en el comercio de alta frecuencia, implica volúmenes y velocidades de datos que superan la comprensión humana normal. Por lo tanto, nos enfocamos en metodologías cuidadosas de capacitación y prueba para garantizar un rendimiento constante.

En nuestros experimentos, hemos explorado varias características del libro de pedidos y su impacto en el rendimiento. Por ejemplo, la incorporación del diferencial de oferta y demanda en el espacio de estado ha demostrado ser valiosa para optimizar la ejecución de operaciones. Sin embargo, no todas las funciones brindan el mismo beneficio y algunas variables pueden incluso tener efectos negativos en el rendimiento debido al sobreajuste. Al seleccionar las características más informativas, hemos logrado una mejora adicional del 13 por ciento además de la mejora del 35 por ciento lograda a través de enfoques teóricos de control.

Hemos estado evaluando una solución de forma experimental, aunque no tengo tiempo para profundizar en los detalles en este momento. Sin embargo, puedo proporcionar una explicación simplificada de la liquidez utilizando un modelo de dibujos animados. Los diferentes dark pools, que son lugares de negociación alternativos, exhiben propiedades de liquidez variables en diferentes momentos y para diferentes acciones.

Cuando surge un nuevo intercambio, ya sea un libro de órdenes limitadas o un grupo oscuro, a menudo trata de establecerse en el mercado ofreciendo trato preferencial, descuentos o tarifas para una clase particular de acciones. Se promocionan a sí mismos como el grupo oscuro preferido para negociar tipos específicos de acciones. Como resultado, los comerciantes interesados en esas acciones se sienten atraídos por ese grupo oscuro específico, lo que genera liquidez. Por el contrario, otros grupos oscuros pueden tener diferentes perfiles de liquidez y es posible que no atraigan tanta actividad comercial.

Para visualizar este concepto, imagine que cada grupo oscuro tiene un perfil de liquidez único para una acción determinada, representado por una distribución de probabilidad estacionaria. El eje x representa el número de acciones, mientras que el eje y representa la probabilidad de encontrar acciones disponibles para la ejecución en cada paso de tiempo discreto. Cuando enviamos nuestra orden comercial a un grupo oscuro, se extrae un número (s) de esta distribución, que indica el volumen de contrapartes dispuestas a operar en ese paso de tiempo específico. El volumen ejecutado viene determinado por el mínimo del volumen tirado (s) y el volumen solicitado (vns), asegurando la ejecución parcial en caso de ser necesario.

Ahora, puede preguntarse cómo la curva de liquidez puede ser no decreciente cuando ocurre una ejecución parcial. La curva de liquidez simplemente representa la probabilidad de encontrar volumen disponible dentro de un cierto rango. Muestra que es más probable que los volúmenes más pequeños estén disponibles para la ejecución, mientras que los volúmenes más grandes tienen menos probabilidades. La ejecución parcial simplemente significa que el volumen ejecutado es menor que el volumen solicitado, pero no afecta la forma general de la curva de liquidez.

La proliferación de charcos oscuros es un fenómeno interesante. Plantea preguntas sobre el equilibrio del mercado y la competencia entre estos lugares. Sigue siendo incierto si el mercado eventualmente se consolidará, lo que conducirá al dominio de algunos grupos oscuros. Se ha observado una dinámica similar en las subastas dobles continuas desde que la desregulación de los mercados financieros permitió que múltiples bolsas operaran simultáneamente. El panorama regulatorio y la capacidad de las nuevas empresas para proponer nuevos mecanismos contribuyen a la complejidad de la estructura del mercado.

Teniendo en cuenta la conexión entre esta investigación y el artículo de Eric, podemos explorar la interacción entre diferentes estructuras de mercado, algoritmos y su impacto en la estabilidad y fragmentación del mercado. Al simular escenarios que involucran a múltiples jugadores que usan algoritmos similares, podemos investigar los resultados computacionales y estudiar cómo la estructura del mercado y la diversidad de algoritmos influyen en los precios y otras preocupaciones regulatorias. Esta combinación de esfuerzos de investigación podría generar información valiosa sobre la compleja relación entre la estructura del mercado, el comercio algorítmico y la estabilidad del mercado.

Además, podemos profundizar en preguntas más sofisticadas, como la interacción entre diferentes algoritmos y estructuras de mercado, y cómo dan forma a la dinámica del mercado. Al examinar varios escenarios de mercado, podemos analizar la idoneidad de diferentes estructuras y algoritmos de mercado para lograr la estabilidad y abordar los problemas de fragmentación.

La evolución de los mercados financieros ha llevado a la automatización de ciertos aspectos, reemplazando a menudo elementos humanos útiles. Sin embargo, se han introducido nuevos mecanismos electrónicos para replicar y mejorar la funcionalidad. Comprender estas dinámicas y adaptar nuestras estrategias en consecuencia nos permite navegar por las complejidades de los mercados financieros modernos.

Mi charla arrojará luz sobre los desafíos algorítmicos inherentes al comercio en los mercados financieros electrónicos modernos. Los tres estudios de caso que presentaré destacan las complejidades y las compensaciones que se enfrentan en la ejecución optimizada y la optimización algorítmica de la cartera. Si bien las limitaciones de tiempo pueden impedirme cubrir completamente todos los temas, espero brindar información valiosa sobre estas áreas.

Si bien las simulaciones y los análisis computacionales ofrecen vías para comprender los posibles resultados del comercio algorítmico, es esencial lograr un equilibrio entre el modelado abstracto y la relevancia en el mundo real. El desafío radica en identificar qué detalles son cruciales y cuáles se pueden pasar por alto sin sacrificar la relevancia práctica, especialmente en el panorama complejo y en constante evolución de los mercados financieros.

 

El diseño de los intercambios financieros: algunas preguntas abiertas en la intersección de Econ y CS



El diseño de los intercambios financieros: algunas preguntas abiertas en la intersección de Econ y CS

Muchas gracias, Kostas. Esta charla va a ser un poco poco convencional para mí, pero espero que se alinee con el espíritu de esta conferencia y el tema de las direcciones abiertas. Está conectado con el diseño de los intercambios financieros, particularmente el diseño predominante conocido como el libro de órdenes de límite continuo. Comenzaré discutiendo un documento en el que trabajé recientemente con Peter Crampton y John Shimm, que destaca una falla económica en el diseño actual del intercambio financiero. Este defecto, argumentamos, contribuye a los aspectos negativos del comercio de alta frecuencia.

La primera parte de la charla cubrirá este documento, que puede ser familiar para algunos de ustedes, pero probablemente no para la mayoría. Presenta un caso económico para un enfoque alternativo llamado negociación en tiempo discreto o subastas por lotes frecuentes. Nuestro documento sugiere que el libro de órdenes de límite continuo, aunque se usa ampliamente en todo el mundo, adolece de una falla estructural que conduce a varios problemas asociados con el comercio de alta frecuencia. Presentaré una versión resumida y accesible de esta parte, ya que se ha presentado varias veces antes.

La segunda y tercera parte de la charla ahondarán en preguntas abiertas y direcciones de investigación relacionadas con el diseño de intercambios financieros. Estas áreas de investigación se encuentran en la intersección de la economía y la informática. En las secciones posteriores, discutiré una porción de dos páginas en la parte posterior del artículo del Quarterly Journal of Economics que presenta un argumento cualitativo, sin teoremas o datos, para los beneficios computacionales del comercio en tiempo discreto en comparación con el diseño de mercado actual. . Esta discusión planteará numerosas preguntas y tendrá como objetivo estimular una mayor exploración.

Aunque las últimas partes de la charla son menos formales de lo que estoy acostumbrado, creo que son cruciales para plantear preguntas abiertas y establecer una agenda para futuras investigaciones. Esto se alinea con el propósito de esta conferencia, que fomenta la exploración de las intersecciones de la economía y la informática y sugiere direcciones fructíferas para futuras investigaciones.

Ahora, profundicemos en el caso económico del comercio en tiempo discreto y sus ventajas sobre el libro de órdenes con límite continuo, que explicaré con más detalle. El libro de órdenes de límite continuo es un diseño de mercado que procesa billones de dólares en actividad económica cada día. Opera en base a órdenes limitadas, que especifican el precio, la cantidad y la dirección (compra o venta) de un valor. Los participantes del mercado pueden enviar, cancelar o modificar órdenes limitadas a lo largo del día, y estos mensajes se envían a la bolsa.

El comercio ocurre cuando una nueva solicitud coincide con las órdenes existentes en el libro de órdenes limitadas. Por ejemplo, una solicitud de compra con un precio igual o superior a una oferta de venta pendiente daría lugar a una operación. Este es el funcionamiento básico del libro de órdenes de límite continuo.

Sin embargo, nuestra investigación sugiere que este diseño de mercado tiene fallas inherentes. Un problema importante es lo que llamamos "francotiradores". Cuando hay un cambio en la información o señales públicas, las casas de bolsa que se dedican a la provisión de liquidez ajustan sus cotizaciones en consecuencia. Cancelan sus ofertas o solicitudes anteriores y las reemplazan por otras nuevas que reflejan la información actualizada. Ahora, supongamos que soy una de estas empresas comerciales que ajusta mis cotizaciones. Al mismo tiempo, otros, como Thomas, también envían mensajes al intercambio para negociar con las cotizaciones antiguas antes de que sean reemplazadas.

Dado que el mercado procesa estos mensajes en tiempo continuo y en orden en serie, se vuelve aleatorio qué mensaje llega primero al intercambio. Si varias empresas comerciales reaccionan a la nueva información simultáneamente, existe la posibilidad de que una solicitud de Thomas o de cualquier otro participante se procese antes que la mía, lo que les permitirá operar al precio anterior. Este fenómeno de francotiradores es problemático y crea varias implicaciones.

En primer lugar, permite oportunidades de arbitraje mecánico basadas en información pública simétrica, lo que no se supone que suceda en un mercado eficiente. En segundo lugar, las ganancias de tales oportunidades de arbitraje se obtienen a expensas de la provisión de liquidez. A medida que los francotiradores ejecutan con éxito operaciones a precios antiguos, las empresas comerciales de aprovisionamiento de liquidez dudan en ajustar sus cotizaciones rápidamente. Esta vacilación proviene del temor de ser atacado y perder ganancias potenciales. En consecuencia, el mercado se vuelve menos eficiente a medida que los proveedores de liquidez están menos dispuestos a actualizar sus cotizaciones en respuesta a nueva información.

Otro problema con el libro de órdenes de límite continuo es el potencial de anticipación de órdenes. En este escenario, los comerciantes observan la llegada de nuevas órdenes limitadas y ajustan sus cotizaciones de forma preventiva en previsión de operaciones futuras. Este comportamiento puede conducir a un efecto en cascada, donde los comerciantes ajustan constantemente sus cotizaciones en respuesta a los demás, creando una volatilidad e inestabilidad innecesarias en el mercado.

Para abordar estos defectos, nuestro documento propone un diseño de mercado alternativo conocido como negociación en tiempo discreto o subastas por lotes frecuentes. En este diseño, en lugar de procesar pedidos en tiempo continuo, el mercado opera en intervalos de tiempo discretos o lotes. Durante cada lote, los participantes del mercado pueden enviar sus órdenes limitadas y, al final del lote, el mercado se compensa y las transacciones se ejecutan a un precio único y uniforme.

Al introducir el comercio en tiempo discreto, eliminamos los problemas de los francotiradores y la anticipación de órdenes. Dado que todos los pedidos enviados dentro de un lote se procesan simultáneamente, no hay aleatoriedad en la ejecución del pedido. Los comerciantes pueden estar seguros de que sus órdenes se ejecutarán al mismo precio que otros participantes dentro del mismo lote, lo que garantiza la equidad y reduce el incentivo para los francotiradores.

Además, las subastas por lotes frecuentes promueven la estabilidad y reducen la volatilidad innecesaria en el mercado. Los comerciantes ya no necesitan ajustar constantemente sus cotizaciones en respuesta a cada pedido entrante. En cambio, pueden concentrarse en analizar la información y tomar decisiones comerciales informadas, sabiendo que sus órdenes se ejecutarán al final del lote a un precio justo.

Invertir en los mercados financieros a menudo requiere una cierta cantidad de tiempo de espera para que se realicen las transacciones. Diferentes personas pueden tener diferentes opiniones sobre si este tiempo de espera es un costo significativo o insignificante. Por ejemplo, si eres un poco más rápido que yo en la ejecución de operaciones, como ser una millonésima de segundo más rápido, podría darte una ventaja para actuar sobre eventos de noticias dentro de ese marco de tiempo. Por otro lado, podría perder la oportunidad de actuar debido a mi velocidad un poco más lenta. Esta ventaja de velocidad a menudo se mide por la relación entre el diferencial de velocidad (Delta) y el intervalo de lote (tau) en un mercado continuo.

En un mercado discreto, si eres un poco más rápido que yo, siempre puedes "atacarme" en un intervalo de tiempo específico (Delta sobre tau) debido a la competencia basada en subastas. Sin embargo, si usted y otros comerciantes son un poco más rápidos que yo, tendríamos que competir en una subasta para comerciar conmigo en lugar de competir solo por la velocidad. Esto plantea la pregunta de si los diferentes mercados adoptan este enfoque de reloj sincronizado de manera uniforme o si existen desafíos prácticos involucrados.

Es importante tener en cuenta que en el mercado continuo actual, la ley de un precio se viola constantemente porque los cambios de precios no ocurren simultáneamente en diferentes intercambios. Esta violación no es fácilmente detectable con la observación humana o los datos de investigación disponibles. Sin embargo, si varios intercambios adoptaran subastas por lotes frecuentes simultáneamente, sería posible detectar violaciones de la ley de un precio más fácilmente. Esto no significa necesariamente que un enfoque sea mejor o peor, sino que los datos brindarán información más clara.

Si un solo intercambio hiciera la transición a un mercado discreto mientras que otros permanecieran continuos, ese intercambio eliminaría el arbitraje de latencia y eliminaría un impuesto sobre la provisión de liquidez. En un sentido económico, esto podría dar una ventaja al intercambio de mercado discreto a lo largo del tiempo. Sin embargo, existen desafíos para lanzar un nuevo mercado, ambigüedades regulatorias e intereses creados de los intercambios existentes que se benefician del diseño del mercado actual.

En cuanto a la propuesta de IEX de introducir latencia en cada pedido manteniendo un intercambio de tiempo continuo, funciona retrasando los pedidos entrantes y salientes por un intervalo de tiempo específico. IEX monitorea los cambios en el mercado en una fracción de segundo y ajusta los precios en consecuencia. Sin embargo, una debilidad potencial en su diseño es que se basa en acceder a información de precios de fuentes externas. Esto plantea dudas sobre si el enfoque de IEX contribuye al descubrimiento de precios o simplemente se basa en información de otros lugares.

Por otro lado, la introducción de retrasos aleatorios en todos los pedidos puede no abordar de manera efectiva los francotiradores y puede generar un tráfico de mensajes infinito. Si bien se han propuesto varias ideas para abordar el problema, muchas de ellas han demostrado ser ineficaces cuando se analizan. En contraste, nuestro artículo propone hacer que el tiempo sea discreto y el procesamiento por lotes como una solución a la falla en el diseño del mercado, que crea rentas a partir de la información pública y fomenta una carrera de velocidad.

Un aspecto que discutimos en el documento son las ventajas computacionales del comercio en tiempo discreto. Los mercados financieros modernos se han enfrentado a varios problemas informáticos, como caídas repentinas y fallas en los intercambios. El tiempo discreto ofrece simplicidad computacional en comparación con el tiempo continuo y brinda beneficios específicos para los intercambios, los comerciantes algorítmicos y los reguladores.

Para los intercambios, el procesamiento en tiempo continuo puede generar problemas de acumulación, donde los algoritmos no están seguros sobre el estado de los pedidos y el mercado durante los momentos de alta actividad. Por el contrario, las subastas por lotes en tiempo discreto se pueden procesar de manera más eficiente y proporcionan un colchón de tiempo en relación con el tiempo de procesamiento en el peor de los casos. Esto reduce la incertidumbre y los problemas de acumulación que enfrentan los intercambios.

El tiempo discreto también simplifica el procesamiento de mensajes para intercambios, eliminando la necesidad de priorizar la difusión de diferentes tipos de mensajes. Esto reduce la posibilidad de explotar la asimetría de la información. Además, el tiempo discreto simplifica el entorno de programación para los intercambios, lo que reduce potencialmente la aparición de fallas y mejora la estabilidad general del sistema.

Otro beneficio computacional del comercio en tiempo discreto es que simplifica el análisis y el modelado de estrategias algorítmicas. En los mercados de tiempo continuo, los comerciantes algorítmicos enfrentan el desafío de optimizar su respuesta a los datos entrantes en tiempo real. Necesitan tomar decisiones rápidamente teniendo en cuenta las condiciones cambiantes del mercado. Este equilibrio entre velocidad e inteligencia es un problema complejo de resolver.

Sin embargo, en el comercio de tiempo discreto, el procesamiento por lotes de datos permite a los operadores algorítmicos tener un intervalo fijo para analizar y tomar decisiones. Por ejemplo, si el intervalo del lote se establece en 100 milisegundos, los operadores pueden darse el lujo de dedicar los primeros 100 milisegundos a un análisis exhaustivo sin la presión de una ejecución inmediata. Esto puede conducir a procesos de toma de decisiones más sofisticados y precisos.

Las preguntas de investigación surgen de esta ventaja computacional. ¿Cómo pueden los comerciantes algorítmicos lograr el equilibrio adecuado entre velocidad e inteligencia en su toma de decisiones? ¿Existen externalidades negativas asociadas con favorecer la velocidad sobre la inteligencia en el mercado? ¿El marco de tiempo discreto mejora la precisión de la formación de precios en comparación con el comercio de tiempo continuo?

Para los reguladores, el comercio en tiempo discreto ofrece el beneficio de un registro en papel más limpio. En los mercados de tiempo continuo, la sincronización de relojes y el ajuste de sellos de tiempo pueden introducir complejidades a la hora de reconstruir la secuencia de eventos. Se vuelve un desafío determinar el orden cronológico de las acciones en diferentes mercados. Por el contrario, el comercio en tiempo discreto simplifica este proceso, lo que facilita el establecimiento de un registro claro y preciso de la actividad del mercado.

Los beneficios potenciales de un rastro de papel limpio en el comercio de tiempo discreto son una pregunta abierta. Intuitivamente, una actividad de mercado bien documentada y fácilmente rastreable puede mejorar la transparencia y la rendición de cuentas. Puede mejorar la vigilancia del mercado y ayudar a los reguladores a identificar y abordar las prácticas comerciales manipuladoras o ilegales de manera más eficaz.

Nuestra investigación destaca las fallas económicas en el diseño actual del libro de órdenes con límite continuo y presenta un enfoque alternativo llamado negociación en tiempo discreto o subastas por lotes frecuentes. Este diseño alternativo aborda problemas como la anticipación de pedidos y el francotirador, promoviendo la equidad, la estabilidad y la eficiencia en los intercambios financieros. Al explorar estas preguntas abiertas y direcciones de investigación, nuestro objetivo es estimular una mayor investigación sobre el diseño de intercambios financieros, uniendo los campos de la economía y la informática para mejorar la funcionalidad y el rendimiento del mercado.

El comercio en tiempo discreto ofrece varias ventajas computacionales sobre el comercio en tiempo continuo. Simplifica el procesamiento de mensajes para los intercambios, reduce los cuellos de botella computacionales y permite estrategias algorítmicas más sofisticadas. También proporciona un rastro de papel más limpio para los reguladores, mejorando la vigilancia del mercado y la transparencia. Sin embargo, se necesita más investigación para explorar las implicaciones y los posibles inconvenientes del comercio en tiempo discreto en la práctica.

 

ChatGPT y aprendizaje automático en el comercio



ChatGPT y aprendizaje automático en el comercio

El presentador profundiza en el tema de la utilización de modelos de procesamiento de lenguaje natural (NLP) como ChatGPT en la industria comercial, enfatizando su capacidad para analizar y comprender fuentes de texto como artículos de noticias, publicaciones en redes sociales y estados financieros. Específicamente, ChatGPT, un poderoso modelo de lenguaje, es muy adecuado para analizar grandes cantidades de datos financieros y generar respuestas que suenen naturales, lo que permite a los comerciantes entablar conversaciones sobre oportunidades comerciales.

La comunidad financiera tiene grandes expectativas para ChatGPT, anticipando su contribución al desarrollo y optimización de estrategias comerciales. El presentador aclara aún más las distinciones entre la inteligencia artificial (IA), el aprendizaje automático (ML) y el aprendizaje profundo, y destaca que el aprendizaje automático es un subconjunto de la IA que emplea técnicas para enseñar a las máquinas a simular el comportamiento humano y tomar decisiones inteligentes.

Continuando, el presentador analiza el flujo de trabajo típico de ML en el comercio. Explican que ML permite que las máquinas aprendan de los datos y hagan predicciones, siguiendo una serie de pasos. Inicialmente, los datos se recopilan y procesan previamente para garantizar su calidad y relevancia. A continuación, las características se diseñan para convertir los datos sin procesar en atributos significativos que las máquinas puedan comprender. Luego, los datos se dividen en conjuntos de entrenamiento y prueba, y se construye un modelo utilizando algoritmos ML. Finalmente, el modelo se prueba con nuevos datos y, si funciona satisfactoriamente, puede usarse para hacer predicciones, lo que facilita el proceso de negociación.

Para ilustrar la aplicación de ML, el presentador brinda un ejemplo de predicción de precios altos y bajos de un activo, como el oro, para el siguiente día de negociación. Esta predicción puede ayudar en gran medida a los comerciantes a tomar decisiones informadas y mejorar sus estrategias comerciales.

Además, el presentador explora cómo ChatGPT puede servir como una herramienta valiosa para resolver problemas comerciales, como la creación de un modelo de regresión lineal para predecir los precios del oro. Comparan el enfoque de ChatGPT con un enfoque cuantitativo más integral, que implica la recopilación de datos, la limpieza, la creación de modelos, el desarrollo de canalizaciones, el comercio en vivo y la mejora continua. Se comparte un ejemplo de un cuaderno de código de regresión de aprendizaje automático, que describe los cuatro pasos clave involucrados en la resolución del problema: preparación de datos, preprocesamiento, predicción de precios y análisis de estrategia y rendimiento. Si bien ChatGPT puede ayudar en la generación de ideas, el presentador enfatiza la necesidad de una comprensión matizada de cada concepto y una consideración cuidadosa para evitar errores.

También se abordan las limitaciones y los riesgos asociados con el uso de ChatGPT en el comercio algorítmico basado en ML. El presentador destaca los desafíos potenciales, incluida la falta de experiencia en el dominio, los datos de capacitación limitados y los problemas de interpretación. Advierten contra confiar únicamente en ChatGPT para las decisiones comerciales y enfatizan la importancia de realizar verificaciones de precisión en diferentes períodos financieros.

Además, el presentador analiza los resultados de una encuesta realizada sobre la capacidad de ChatGPT para generar código con precisión. La mayoría de la audiencia (74 %) identifica correctamente que ChatGPT puede proporcionar una precisión razonable, pero no es adecuado para tareas de programación complejas que requieren experiencia en el dominio. Para ilustrar el proceso, el presentador demuestra cómo dividir los datos en conjuntos de prueba y entrenamiento utilizando el código de Python generado por ChatGPT. Hacen hincapié en la secuenciación correcta de los datos, particularmente en el contexto de los datos de series temporales en el comercio.

La evaluación de algoritmos comerciales basados en ML a través de backtesting y análisis de estrategias se destaca como un paso crucial para evaluar su desempeño. El presentador enfatiza la necesidad de un análisis en profundidad utilizando varias métricas, como el índice de Sharpe, los rendimientos anualizados y la volatilidad de los rendimientos para obtener información sobre las operaciones y el rendimiento general. Se muestra una comparación entre los rendimientos de un algoritmo comercial y una estrategia de compra y retención como un paso inicial para evaluar la efectividad del algoritmo.

Además, el presentador comparte un ejemplo de una estrategia comercial rentable y enfatiza la importancia de visualizar y analizar datos en el proceso comercial. Los análisis de estrategias, incluidos los rendimientos anuales y los rendimientos acumulativos, son fundamentales para evaluar el éxito de una estrategia.

Cambiando de tema, el presentador aborda las limitaciones del uso de GPT para el análisis financiero en el comercio. La audiencia participó previamente en una encuesta, y la mayoría expresó la opinión de que una precisión razonable requiere verificación de hechos y que GPT puede no ser adecuado para el análisis financiero. Para ilustrar esta limitación, el presentador solicita a GPT que compare los estados financieros anuales de Apple y Microsoft para 2020. Sin embargo, GPT proporciona una respuesta inexacta, destacando sus limitaciones como modelo generador que carece de experiencia en el dominio. El presentador subraya la importancia de adquirir conocimientos relacionados con las finanzas, leer libros y verificar datos antes de aplicar algoritmos de ML, como GPT, al comercio.

Reconociendo la importancia del conocimiento relacionado con el dominio en finanzas, el presentador sugiere tomar cursos para adquirir experiencia. Esta experiencia permite a los comerciantes hacer un mejor uso de las herramientas de aprendizaje automático como ChatGPT. En apoyo de esto, el presentador ofrece acceso gratuito a cuatro cuadernos de un curso educativo de comercio con aprendizaje automático, lo que permite a los espectadores obtener una comprensión más profunda del código y su aplicación.

Durante la sesión de preguntas y respuestas, surge una pregunta común sobre la capacidad de ChatGPT para mantenerse al día con los cambios diarios en los mercados financieros. El presentador aclara que, como modelo de lenguaje, la eficacia de ChatGPT está limitada por los datos con los que se entrenó y no se actualiza a diario. Mantenerse actualizado con los últimos datos del mercado es esencial para utilizar ChatGPT de manera efectiva o cualquier modelo de aprendizaje automático en finanzas.

Los oradores abordan varias otras preguntas de la audiencia y brindan información útil. Informan a la audiencia que la sesión grabada se compartirá por correo electrónico y en su canal de YouTube para referencia futura. También analizan la disponibilidad de un cuaderno durante las próximas 24 horas y explican el concepto de canalización en el aprendizaje automático.

Se plantea una pregunta específica con respecto a la conversión de código Python vectorizado en un formato desplegable en una biblioteca comercial en vivo. Los oradores explican que, si bien ChatGPT puede ayudar en la conversión de código, aún es necesario definir los activadores de eventos. Adicionalmente, mencionan que la Cargabilidad 3.5 no brinda información para el año 2022.

Para concluir, los oradores discuten una estrategia comercial que utiliza predicciones altas y bajas del día siguiente, que se optimizó utilizando técnicas de aprendizaje automático. Hacen hincapié en las aplicaciones del aprendizaje profundo en el comercio, como la previsión de series temporales, la optimización de carteras y la gestión de riesgos. El aprendizaje profundo, junto con el aprendizaje por refuerzo, puede mejorar el rendimiento de las estrategias comerciales al permitir que los agentes aprendan de los errores a través de recompensas y castigos.

El presentador enfatiza que la experiencia en el dominio y la intuición siguen siendo fundamentales para el uso confiable del aprendizaje automático en el comercio. Si bien herramientas como ChatGPT pueden ayudar a analizar datos históricos y evaluar la probabilidad de éxito en transacciones futuras, no se debe confiar únicamente en ellas. Se enfatiza la importancia de adquirir conocimientos relacionados con el dominio, verificación de hechos y mantenerse actualizado continuamente sobre los últimos datos del mercado para garantizar una toma de decisiones precisa e informada en la industria comercial.

  • 00:00:00 Los algoritmos de ML pueden comprender las tendencias y patrones en el mercado y luego usar esa información para predecir futuros movimientos del mercado. Para ayudar en este proceso, a menudo se usan algoritmos de aprendizaje automático, y aquí es donde entra en juego ChatGPT. ChatGPT es una herramienta de procesamiento de lenguaje natural que puede ayudar a los comerciantes a analizar grandes cantidades de datos financieros y brindar información sobre las tendencias del mercado. Sin embargo, el uso de ChatGPT conlleva su propio conjunto de desafíos y riesgos, que se analizarán más adelante en la presentación. En general, ML y ChatGPT han revolucionado la industria comercial al permitir predicciones más precisas y una toma de decisiones mejor informada.

  • 00:05:00 El orador analiza el uso de modelos de procesamiento de lenguaje natural (NLP) como ChatGPT en la industria comercial. Estos modelos pueden analizar y comprender fuentes de texto, como artículos de noticias, publicaciones en redes sociales y estados financieros. ChatGPT, un modelo de lenguaje extenso, es particularmente adecuado para analizar dichos datos y puede generar respuestas que suenen naturales a las indicaciones de texto, lo que hace posible entablar conversaciones sobre oportunidades comerciales. La comunidad financiera tiene grandes expectativas para ChatGPT, ya que se espera que ayude a desarrollar y optimizar las estrategias comerciales. El orador también explica las diferencias entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo, siendo el aprendizaje automático una colección de técnicas utilizadas en la IA para enseñar a las máquinas a simular el comportamiento humano y tomar decisiones inteligentes.

  • 00:10:00 El orador analiza cómo se puede usar el aprendizaje automático (ML) para el comercio y describe el flujo de trabajo típico de ML en el comercio. Explican que ML es un subconjunto de inteligencia artificial (IA) que permite que las máquinas aprendan de los datos y hagan predicciones. Para aplicar ML, primero, los datos se recopilan y preprocesan, luego se diseñan las características para convertir los datos sin procesar en atributos que una máquina pueda entender. Luego, los datos se modifican, se dividen en conjuntos de entrenamiento y prueba, y se integran en un modelo. Finalmente, el modelo se prueba con nuevos datos y, si es satisfactorio, se pueden hacer predicciones. Más adelante, el orador brinda un ejemplo del uso de ML para predecir el máximo y el mínimo de un activo como el oro para el siguiente día de negociación, lo que puede ayudar a facilitar el proceso de negociación.

  • 00:15:00 El orador explica cómo se puede usar ChatGPT como ayuda para resolver problemas, como la creación de un modelo de regresión lineal para predecir los precios del oro para el día siguiente. Comparan el enfoque de ChatGPT con un enfoque cuantitativo más profesional, que incluye la recopilación y limpieza de datos, la creación de modelos y canalizaciones, la verificación de AP de datos, el comercio en vivo y la implementación en producción mientras se mejora continuamente. También muestran un ejemplo de un cuaderno de código de regresión de aprendizaje automático y explican las cuatro partes para resolver el problema: preparación de datos, preprocesamiento, predicción de precios y análisis de estrategia y rendimiento. El orador señala que, si bien ChatGPT se puede usar para generar ideas, es importante comprender cada concepto en detalle y matizar el enfoque para evitar errores. También discuten el uso de ChatGPT para generar código y lanzar una encuesta.

  • 00:20:00 El orador analiza las respuestas de la audiencia a una encuesta sobre la capacidad de ChargeGPT para generar código con precisión. La mayoría de la audiencia (74 %) elige correctamente que ChargeGPT puede proporcionar una precisión razonable, pero no es adecuado para tareas de programación complejas que requieren experiencia en el dominio. Luego, el orador procede a demostrar cómo dividir los datos en un conjunto de entrenamiento y prueba utilizando el código Python generado por ChargeGPT y muestra cómo los datos deben secuenciarse correctamente para los datos de series temporales en el comercio.

  • 00:25:00 El orador analiza la importancia de evaluar el rendimiento de un algoritmo comercial basado en el aprendizaje automático mediante pruebas retrospectivas y análisis de estrategias. Explican que esto requiere un análisis detallado del rendimiento de la estrategia y el uso de varias métricas, como la relación aguda, los rendimientos anualizados y la volatilidad de los rendimientos para obtener información sobre las operaciones y el rendimiento. El orador también muestra un ejemplo de cómo comparar el rendimiento de un algoritmo comercial con una estrategia de compra y retención como primer paso para comprender si el algoritmo comercial está funcionando bien.

  • 00:30:00 El disertante discute los resultados de aplicar algoritmos de aprendizaje automático a las estrategias comerciales y enfatiza la importancia de visualizar y analizar los datos. Presentan una estrategia rentable y resaltan la necesidad de análisis de estrategia, como el rendimiento anual y los rendimientos acumulados. Luego, el orador pasa a los desafíos y riesgos asociados con el uso de ChatGPT para el comercio de algoritmos basado en ML, y señala limitaciones como la falta de experiencia en el dominio, datos de capacitación limitados y problemas de interpretabilidad. Advierten contra confiar únicamente en ChatGPT para las decisiones comerciales y destacan la importancia de los controles de precisión para diferentes períodos financieros.

  • 00:35:00 El orador analiza las limitaciones del uso del modelo de lenguaje GPT para el análisis financiero en el comercio. La audiencia participó previamente en una encuesta y la mayoría creía que una precisión razonable requiere verificación de hechos y que GPT puede no ser adecuado para el análisis financiero. El orador demuestra esta limitación al pedirle a GPT que compare los estados financieros anuales de Apple y Microsoft para 2020, lo que resultó en una respuesta inexacta. El orador enfatiza que GPT es un modelo generador y carece de experiencia en el dominio, lo que podría llevar a conclusiones o sugerencias incorrectas. Por lo tanto, el orador recomienda leer más libros, adquirir conocimientos relacionados con las finanzas y verificar los hechos antes de aplicar los algoritmos de ML para el comercio.

  • 00:40:00 El presentador enfatiza la importancia de tener conocimientos relacionados con el dominio al aplicar el aprendizaje automático en finanzas. Sugiere tomar cursos para obtener esta experiencia, lo que puede permitir un mejor uso de las herramientas de aprendizaje automático como ChatGPT. El presentador también brinda acceso gratuito a cuatro cuadernos de un curso educativo de comercio con aprendizaje automático para que los espectadores comprendan mejor el código. Durante la sesión de preguntas y respuestas, se planteó una pregunta común sobre si ChatGPT puede mantenerse al día con los cambios diarios en los mercados financieros. El presentador aclara que, como modelo de lenguaje, es tan bueno como los datos en los que se entrena y no se actualiza diariamente. Para un uso efectivo de ChatGPT o cualquier modelo de aprendizaje automático en finanzas, es esencial mantenerse actualizado con los últimos datos del mercado.

  • 00:45:00 Los oradores abordan varias preguntas de la audiencia. Explican que la sesión grabada se compartirá a través de correo electrónico y en su canal de YouTube. También discuten la disponibilidad de un cuaderno para las próximas 24 horas y la definición de una canalización en aprendizaje automático. Los oradores responden a una pregunta sobre la conversión de código Python vectorizado en uno que se pueda implementar en una biblioteca para el comercio en vivo. Se explica que, si bien Charge puede ayudar a convertir el código, aún es necesario definir activadores de eventos. Los oradores también mencionan que Chargeability 3.5 no proporciona información para 2022. Finalmente, los oradores hablan sobre una estrategia comercial que utiliza los máximos y mínimos del día siguiente y cómo se optimizó mediante el aprendizaje automático.

  • 00:50:00 El orador explica las aplicaciones del aprendizaje profundo en el comercio, incluida la previsión de series temporales, la optimización de carteras y la gestión de riesgos. Describen cómo el aprendizaje profundo crea ciertos agentes que aprenden de los errores a través de recompensas y castigos, y cómo se puede usar una combinación de aprendizaje profundo y aprendizaje reforzado para mejorar el rendimiento de las estrategias comerciales. El orador enfatiza que la clave para usar el aprendizaje automático en el comercio de manera confiable es la experiencia y la intuición del dominio, y que las herramientas como ChatGPT se pueden usar para analizar datos históricos y proporcionar información sobre la probabilidad de éxito en futuros intercambios.

  • 00:55:00 El orador explica que usar solo la cargabilidad puede no ser el mejor enfoque para determinar el riesgo de las operaciones, ya que requiere una comprensión profunda del dominio en sí. Es importante obtener conocimiento y comprensión del dominio antes de confiar en cualquier herramienta o código para resolver el problema. También mencionan la diferencia entre dos cursos de negociación y responden una pregunta sobre cómo convertir el código específico de la plataforma de negociación a Python. Si bien la capacidad de carga puede ayudar a convertir un lenguaje de programación genérico, puede no ser útil en las conversiones de código específicas de la plataforma.
 

Comprender el comportamiento del mercado financiero: el papel de múltiples categorías de datos



Comprender el comportamiento del mercado financiero: el papel de múltiples categorías de datos

El anfitrión comienza el seminario web presentando el tema de la comprensión del comportamiento del mercado financiero y el papel de las múltiples categorías de datos. Los panelistas, incluidos el profesor Gotham Mitra, el Dr. Ernest Chan y el Dr. Mateo Campoloni, se presentan como expertos con amplia experiencia en carreras comerciales y académicas. El seminario web tiene como objetivo explorar cómo los datos de varias categorías juegan un papel crucial en la comprensión y predicción del comportamiento del mercado financiero, un tema que ha ganado una importancia creciente en los últimos tiempos. Se menciona que la sesión es parte del certificado en Sentimentálisis y Datos Alternativos para Finanzas ofrecido por Opticks Systems y QuantInsti.

El primer orador enfatiza la importancia de los datos para comprender el comportamiento del mercado financiero. Si bien al principio solo estaban disponibles datos limitados, como precios de mercado, órdenes de compra y venta, y la profundidad del libro, ahora hay una amplia gama de categorías de datos a considerar. Estos incluyen datos de noticias, datos de opinión de los medios y datos alternativos. A pesar de la hipótesis del mercado eficiente, que sugiere que los mercados finalmente incorporan toda la información, aún existen ineficiencias a corto plazo en el mercado. Por lo tanto, los datos juegan un papel crucial en el descubrimiento de nuevos alfas y en el abordaje de dos problemas principales del mercado: la planificación de carteras y el control de riesgos. El orador también destaca la creciente importancia de la inteligencia artificial (IA) y el aprendizaje automático en el manejo de datos.

El siguiente orador presenta el concepto de inversión causal, que implica examinar las relaciones causales entre diferentes predictores y variables objetivo, en lugar de analizar únicamente las correlaciones estadísticas. Al utilizar datos alternativos, como la actividad de opciones, los inversores pueden obtener información sobre las causas subyacentes de los movimientos de precios y mejorar la precisión de sus estrategias comerciales. Se cita un ejemplo de la estrategia de reversión a la media, que enfatiza la importancia de comprender por qué falla ocasionalmente. Mediante el uso de datos alternativos para descubrir las causas de los movimientos de precios, los inversores pueden tomar decisiones más informadas sobre cuándo aplicar sus estrategias.

El siguiente orador analiza la importancia de los datos para los operadores del mercado, en particular los datos alternativos. Los datos alternativos se refieren a cualquier dato que aún no es un estándar de la industria y forma un ecosistema en constante expansión con nuevos jugadores y proveedores de datos que surgen continuamente. Estos datos pueden obtenerse de varios canales, como transacciones con tarjetas de crédito, imágenes satelitales, datos de dispositivos móviles, datos meteorológicos y más. El ponente también menciona el uso de herramientas de procesamiento de lenguaje natural para analizar documentos textuales y generar indicadores de sentimiento, que pueden ser valiosos para los inversionistas a la hora de complementar sus estrategias de inversión.

El siguiente orador describe el proceso de utilizar datos alternativos en estrategias de inversión. Implica identificar nuevas fuentes de información, incorporar y transformar los datos no estructurados en conjuntos de datos estructurados. Después de desarrollar una estrategia de inversión, la validación se convierte en un paso crucial que requiere comprender la confiabilidad de los datos y la importancia estadística de los resultados. El orador enfatiza la importancia de no confiar únicamente en datos alternativos y también considerar los datos del mercado al crear modelos.

Los oradores profundizan en la importancia de los datos alternativos para capturar las tendencias del mercado y los desafíos que implica realizar pruebas retrospectivas de dichos datos. Si bien los comerciantes técnicos anteriormente se basaban en métricas simples como el promedio móvil de 120 días, ahora existe un impulso para incorporar una gama más amplia de categorías de datos para comprender las causas de la rentabilidad. Sin embargo, dado que los datos alternativos son relativamente nuevos, existen preocupaciones sobre cómo realizar una prueba retrospectiva y qué tan consistentes se mantienen a lo largo del tiempo. Comprender el impacto de las estrategias de inversión requiere evaluar la estabilidad del sistema con respecto a las fluctuaciones aleatorias.

Los oradores analizan el uso de plataformas de datos alternativas como Bloomberg Icon y Reuters Quantum por parte de los comerciantes para desarrollar estrategias de inversión sólidas. Aunque estas plataformas tienen sus propios modelos para cuantificar diversas formas de datos, como el sentimiento y las noticias, los oradores recomiendan a los comerciantes que creen sus propios modelos. Se destaca la importancia de utilizar las API para recibir entradas de datos alternativas y se menciona el valor de los sitios web organizados como Credit Suisse para analizar los anuncios de la empresa. Por último, los ponentes señalan que los enfoques limitados y especializados pueden ser muy eficaces para analizar el comportamiento del mercado.

Los oradores pasan a discutir las diversas herramientas y sitios web que se pueden utilizar para comprender el comportamiento de las diferentes clases de activos en el mercado financiero y cómo realizar un seguimiento del mercado en función del estilo de inversión y el horizonte temporal. Si bien reconocen que no existe una solución única para todos, sugieren que la información cualitativa de sitios web como Bloomberg puede ser útil en este sentido. También enfatizan la importancia de comprender el sentimiento y las fuentes de datos alternativas, como microblogs y salas de chat. Sin embargo, señalan que no está necesariamente garantizado que convertirse en un experto en estas áreas conduzca a una mejor carrera en el mercado financiero.

Luego, el orador explica la diferencia entre desarrollar estrategias comerciales avanzadas para grandes fondos y estrategias simples para comerciantes independientes. Se menciona que las técnicas complejas pueden ser más adecuadas para quienes buscan trabajo en grandes fondos, mientras que se recomienda a los comerciantes independientes que comiencen con una estrategia de nicho que puede no ser de interés para las instituciones. Este enfoque les ayuda a evitar los altos costos asociados con las fuentes de datos complejas. El orador destaca además el creciente interés en nuevas fuentes de datos para el comercio, lo que lo convierte en un campo relevante para aprender y seguir. También mencionan que personalmente utilizan datos alternativos hasta cierto punto en la gestión de sus fondos y ayudan a los clientes a implementar módulos basados en aprendizaje automático y procesamiento de lenguaje natural o validar sus propias estrategias utilizando conjuntos de datos.

Durante la sesión de preguntas y respuestas, se plantea una pregunta sobre la venta de marcas azules en Twitter y si las cuentas verificadas tendrían más peso en el procesamiento del lenguaje natural (NLP). Inicialmente, los panelistas tienen dificultad para entender la pregunta, pero luego admiten que no están calificados para responderla. Luego, la discusión cambia a fuentes de datos financieros tradicionales adecuadas para principiantes y estudiantes, con Bloomberg y Definitive mencionados como opciones potenciales. Se sugiere que los proveedores de datos pueden ofrecer conjuntos de datos gratuitos con un cierto nivel de interacción.

Posteriormente, el disertante analiza el uso de fuentes de datos alternativas para el análisis del mercado financiero, y menciona específicamente a la empresa DGLT, que recopila datos de fuentes de noticias globales y locales. Si bien se reconoce el esfuerzo requerido para filtrar la información relevante, se señala que los datos recopilados pueden brindar una perspectiva histórica sobre el comportamiento del mercado que se remonta al siglo XIX. Cuando se le preguntó si los datos alternativos deberían usarse como fuente única o para la validación junto con los datos tradicionales, el orador afirma que no existe una regla general y depende de la estrategia específica que se emplee. Sin embargo, enfatizan que los datos del mercado siguen siendo el principal impulsor, y no se debe confiar exclusivamente en los datos alternativos.

El orador concluye el seminario web discutiendo el uso de datos alternativos en los mercados financieros y cómo se puede emplear el aprendizaje automático para analizar dichos datos. Destacan la necesidad de ingresar múltiples tipos de datos, incluidos precios y datos fundamentales, en algoritmos predictivos de aprendizaje automático. Sin embargo, también enfatizan que los datos alternativos por sí solos no pueden servir como el único impulsor y deben combinarse con la entrada de precios de mercado. Se alienta a la audiencia a comunicarse con cualquier otra pregunta que puedan tener.

  • 00:00:00 El anfitrión presenta el tema del seminario web, que es comprender el comportamiento del mercado financiero y el papel de múltiples categorías de datos. Los panelistas incluyen al profesor Gotham Mitra, el Dr. Ernest Chan y el Dr. Mateo Campoloni, quienes tienen una amplia experiencia en carreras comerciales y académicas. El enfoque principal del seminario web es explorar cómo los datos de múltiples categorías juegan un papel crucial en la comprensión y predicción del comportamiento del mercado financiero, que se ha vuelto cada vez más importante en los últimos tiempos. La sesión forma parte del certificado en Sentimentálisis y Datos Alternativos para las Finanzas ofrecido por Opticks Systems y QuantInsti.

  • 00:05:00 El orador analiza la importancia de los datos para comprender el comportamiento del mercado financiero. Si bien al principio, los únicos datos disponibles eran los precios de mercado, las órdenes de compra y venta y la profundidad del libro, ahora hay muchas más categorías de datos, incluidos datos de noticias, datos de opinión de los medios y datos alternativos. A pesar de la hipótesis del mercado eficiente, que establece que los mercados finalmente digieren toda la información, todavía existen ineficiencias de mercado a corto plazo. Como resultado, los datos son importantes para encontrar un nuevo alfa y abordar dos problemas principales en el mercado: la planificación de carteras y el control de riesgos. El orador también señala que la parte de la IA y el aprendizaje automático en los datos de conocimiento se está volviendo cada vez más importante en la escena de los datos.

  • 00:10:00 El orador analiza el concepto de inversión causal, que implica observar las relaciones causales entre diferentes predictores y variables objetivo, en lugar de simplemente analizar las correlaciones estadísticas. Con el uso de datos alternativos, como la actividad de opciones, los inversores pueden comprender las causas subyacentes de los movimientos de precios y utilizar esta información para mejorar la precisión de sus estrategias comerciales. El orador cita el ejemplo de la estrategia de reversión a la media y la importancia de comprender por qué a veces falla. Mediante el uso de datos alternativos para descubrir las causas de los movimientos de precios, los inversores pueden tomar decisiones más informadas sobre cuándo ejecutar sus estrategias.

  • 00:15:00 El orador analiza la importancia de los datos para los operadores del mercado, específicamente los datos alternativos, que se refieren a cualquier dato que aún no es un estándar de la industria. Los datos alternativos son un ecosistema en constante crecimiento con nuevos jugadores y proveedores de conjuntos de datos que surgen constantemente. Estos datos pueden provenir de una variedad de fuentes, como transacciones con tarjetas de crédito, imágenes satelitales, datos de dispositivos móviles, datos meteorológicos y más. El ponente también menciona el uso de herramientas de procesamiento de lenguaje natural para procesar documentos textuales y crear indicadores de sentimiento que pueden ser utilizados por los inversores para complementar sus estrategias de inversión.

  • 00:20:00 El orador describe el proceso de usar datos alternativos en estrategias de inversión, lo que implica encontrar nuevas fuentes de información, incorporar la información y transformarla de conjuntos de datos no estructurados a conjuntos de datos estructurados. Después de crear una estrategia de inversión, el paso crucial es la validación, que requiere comprender la confiabilidad de los datos y cuán estadísticamente significativos son los resultados. Además, es importante no confiar únicamente en datos alternativos, sino también considerar los datos del mercado al crear modelos.

  • 00:25:00 Los oradores discuten la importancia de los datos alternativos para capturar las tendencias en el mercado y las dificultades que surgen con el backtesting de los datos. Mientras que anteriormente, los operadores técnicos se basaban en métricas simples como el promedio móvil de 120 días, ahora hay un impulso para incluir una gama de diferentes categorías de datos para comprender las causas de los rendimientos. Sin embargo, los datos alternativos son solo eso porque no existían en el pasado, existe la cuestión de cómo probarlos y qué tan consistentes son a lo largo del tiempo. Los disertantes enfatizan que comprender el efecto de las estrategias de inversión requiere evaluar la estabilidad del sistema con respecto a las fluctuaciones aleatorias.

  • 00:30:00 Los oradores discuten el uso de plataformas de datos alternativas como Bloomberg Icon y Reuters Quantum por parte de los comerciantes para crear estrategias de inversión sólidas. Si bien estas plataformas tienen sus propios modelos para cuantificar diversas formas de datos, como datos de opinión y datos de noticias, se recomienda que los comerciantes creen sus propios modelos. Además, los oradores hablan sobre la importancia de usar API para recibir entradas de datos alternativas y el valor de usar sitios web organizados como Credit Suisse para analizar los anuncios de la empresa. Finalmente, los disertantes señalan que los enfoques limitados y especializados pueden ser bastante efectivos para analizar el comportamiento del mercado.

  • 00:35:00 Los oradores discuten las diversas herramientas y sitios web que se pueden usar para comprender el comportamiento de las diferentes clases de activos en el mercado financiero, así como también cómo seguir el mercado según el estilo de inversión y el horizonte temporal. Si bien no existe una solución única para todos, la información cualitativa de sitios web como Boomberg puede ser útil. Los oradores también hablan sobre la importancia de comprender el sentimiento y datos alternativos como microblogs y salas de chat. Sin embargo, no está claro si convertirse en un experto en estas áreas conduciría necesariamente a una mejor carrera en el mercado financiero.

  • 00:40:00 El orador explica la diferencia entre desarrollar estrategias comerciales avanzadas para grandes fondos versus estrategias simples para comerciantes independientes. Si bien las técnicas complejas pueden ser más adecuadas para quienes buscan trabajo en grandes fondos, es mejor que los comerciantes independientes comiencen con una estrategia de nicho que puede no ser de interés para las instituciones y eviten los altos costos asociados con las fuentes de datos complejas. El orador también señala que existe un interés creciente en nuevas fuentes de datos para el comercio, lo que lo convierte en un campo relevante para aprender y seguir. También mencionan que utilizan datos alternativos hasta cierto punto en la gestión de sus fondos y también ayudan a los clientes a implementar módulos basados en aprendizaje automático y procesamiento de lenguaje natural o validar sus propias estrategias utilizando conjuntos de datos.

  • 00:45:00 Se hace una pregunta sobre la venta de marcas azules en Twitter y si las cuentas verificadas tendrían más peso en el procesamiento del lenguaje natural (NLP). Los panelistas inicialmente tienen problemas para entender la pregunta y luego admiten que no están calificados para responderla. Luego, la discusión pasa a las fuentes de datos financieros tradicionales para principiantes y estudiantes, con Bloomberg y Definitive mencionados como opciones potenciales, y la sugerencia de que los proveedores de datos pueden ofrecer conjuntos de datos gratuitos con cierta cantidad de interacción.

  • 00:50:00 El disertante discute el uso de fuentes alternativas de datos para el análisis del mercado financiero, mencionando específicamente a la empresa DGLT que recopila datos de fuentes de noticias globales y locales. Si bien puede llevar mucho trabajo filtrar la información necesaria, los datos recopilados pueden remontarse a principios del siglo XIX, lo que brinda una perspectiva histórica sobre el comportamiento del mercado. Cuando se le preguntó si los datos alternativos deberían usarse como fuente única o para la validación junto con los datos tradicionales, el orador afirma que no existe una regla general y depende de la estrategia específica que se utilice. Sin embargo, el orador enfatiza que los datos de mercado son los reyes y que no se debe confiar exclusivamente en los datos alternativos.

  • 00:55:00 El orador analiza el uso de datos alternativos en los mercados financieros y cómo se podría utilizar el aprendizaje automático para analizar estos datos. Señala que sería necesario ingresar múltiples tipos de datos, incluidos el precio y los datos fundamentales, en el algoritmo predictivo de aprendizaje automático. Sin embargo, también menciona que los datos alternativos no se pueden usar como un controlador independiente y deben combinarse con la entrada de precios de mercado. El orador concluye el seminario web y alienta a los espectadores a comunicarse con cualquier pregunta que puedan tener.
 

Introducción a la inversión de factores cuantitativos



Introducción a la inversión de factores cuantitativos

Este video presenta el concepto de inversión de factores cuantitativos y su clasificación en diferentes factores, incluidos el valor, el impulso, la calidad y el tamaño. El orador explica que la inversión factorial implica seleccionar valores en función de factores específicos que se supone que impulsarán los rendimientos y lo harán durante largos períodos de tiempo. El video cubre diferentes métodos cuantitativos que se pueden usar para aplicar la inversión de factores cuantitativos, incluido el análisis estadístico, el modelado de factores, el aprendizaje automático, los modelos de optimización, el análisis de series temporales, los modelos de riesgo y la simulación montagórica. El orador también analiza las ventajas de utilizar la inversión de factores cuantitativos y el proceso de selección y combinación de factores, además de responder preguntas relacionadas con el tema, incluso sobre las fuentes de datos y la idoneidad para el comercio de frecuencia media/alta.

En el seminario web, Varun Kumar, analista cuantitativo de QuantInsti, brinda una introducción completa a la inversión de factores cuantitativos. Comienza explicando el concepto de factores, que son fuentes amplias y persistentes de riesgo y rendimiento que guían a los inversores hacia rendimientos cuantificables. Algunos factores comunes incluyen valor, impulso, calidad, tamaño y volatilidad. Kumar se centra en el factor calidad como ejemplo, lo que implica invertir en empresas con características de alta calidad. Los índices financieros como el rendimiento del capital y la tasa de crecimiento de la rentabilidad se utilizan para cuantificar la calidad de una empresa. Las acciones con índices y márgenes altos se consideran de alta calidad, mientras que las que tienen índices y márgenes más bajos se consideran de baja calidad. Los datos históricos muestran que las carteras que consisten en acciones de alta calidad han generado rendimientos excesivos durante largos períodos de tiempo.

Luego, Kumar profundiza en la clasificación de factores en la inversión de factores cuantitativos. Los factores se clasifican en siete tipos, incluidos los factores macro, los factores basados en el estilo, los factores sectoriales, los factores basados en ESG, los factores basados en el sentimiento, los factores basados en la liquidez y los factores técnicos. Brinda información sobre cómo funciona cada uno de estos factores y cómo se pueden utilizar para construir carteras de factores. Para ilustrar esto, presenta ejemplos de estrategias construidas utilizando factores macroeconómicos y basados en el estilo. Estas estrategias implican utilizar variables como el crecimiento del PIB, la tasa de inflación, la tasa de interés y el rendimiento del capital para seleccionar acciones y crear una cartera. Kumar también destaca la importancia de considerar factores como un mayor retorno sobre el capital y una baja relación deuda-capital al seleccionar acciones para una cartera.

El seminario web explora más a fondo varios factores que se pueden incorporar en las estrategias de inversión de factores cuantitativos, incluidos los factores de estilo, la matriz sectorial, los criterios ESG, el sentimiento, la liquidez y los indicadores técnicos. Kumar explica cómo se pueden utilizar estos factores para desarrollar un marco lógico para construir carteras y proporciona ejemplos del mundo real de estrategias que se pueden implementar utilizando estos factores. Se refiere brevemente a los criterios ESG, que significan criterios ambientales, sociales y de gobernanza, y su papel en la calificación de las empresas en función de su impacto en la sociedad y el medio ambiente.

También se analiza la utilización de modelos matemáticos y análisis estadísticos en la inversión de factores cuantitativos. Kumar enfatiza que estos métodos ayudan a eliminar los sesgos emocionales de las decisiones de inversión y permiten la exploración de factores menos intuitivos. Describe los siete métodos cuantitativos más utilizados en este campo, incluidos el análisis estadístico, el modelado de factores, el aprendizaje automático, los modelos de optimización, el análisis de series temporales, los modelos de riesgo y las simulaciones de Monte Carlo. El video destaca cómo se puede emplear el análisis estadístico para identificar patrones y correlaciones entre valores y factores.

En el seminario web se exploran las ventajas de la inversión de factores cuantitativos en la construcción y gestión de carteras de inversión. Una ventaja clave es la capacidad de simular condiciones de mercado extremas, lo que ayuda a los inversores a comprender mejor las limitaciones de sus carteras. El orador enfatiza las diferencias de enfoque entre la inversión de factores tradicional y cuantitativa, utilizando un estudio de caso de una cartera de acciones de gran capitalización con una baja relación precio-beneficio. Mientras que la inversión tradicional implica identificar factores, determinar el universo de acciones de gran capitalización y calcular los factores para cada acción antes de clasificarlos en función de las relaciones P/E, la inversión de factores cuantitativos emplea la recopilación de datos, el preprocesamiento y la selección de características. Se crea un modelo para predecir los precios de las acciones en función de las características seleccionadas.

Se explica el proceso de inversión de factores cuantitativos, enfatizando la importancia de construir modelos precisos para predecir los precios de las acciones en función de características específicas. El orador destaca que este enfoque está basado en datos y es más objetivo en comparación con la inversión tradicional por factores, lo que permite un análisis más preciso y confiable. Para seleccionar los mejores factores para invertir, los factores deben ser persistentes, funcionar en diferentes mercados y sectores, ser resistentes a las diversas condiciones del mercado, no demasiado sensibles a los cambios en la ética del mercado y poseer suficiente liquidez y capacidad.

El seminario web también cubre la combinación de factores en la inversión de factores cuantitativos. Se analizan cinco métodos de uso común, que incluyen la ponderación igual y la puntuación de los factores, donde cada factor se puntúa en función de su rendimiento histórico y se toma un promedio ponderado para obtener una puntuación general. Se destaca la importancia de combinar factores, ya que reduce el riesgo de la cartera, aumenta la diversificación y minimiza la volatilidad del rendimiento. El orador describe cinco características clave de un mejor factor, que incluyen estar respaldado por evidencia empírica, tener una base económica o financiera, ofrecer oportunidades de inversión a largo plazo, ser invertible y ser intuitivo y ampliamente aceptado.

El orador continúa discutiendo varios métodos para combinar factores en la inversión de factores cuantitativos. Uno de estos métodos es el análisis de componentes principales (PCA), que combina múltiples factores en un conjunto más pequeño de componentes no correlacionados. Este enfoque reduce el número de factores y aborda el problema de los factores correlacionados, también conocido como multicolinealidad. Otro método es la inclinación de factores, que consiste en ajustar las ponderaciones o asignaciones en una cartera para enfatizar un factor en particular. Esta técnica ofrece flexibilidad y permite a los inversores centrarse en factores específicos. Además, el aprendizaje automático se puede aprovechar para seleccionar o combinar factores en función de su desempeño histórico, capturando relaciones no lineales de manera efectiva. El orador enfatiza la importancia de tener cuidado al emplear algoritmos de aprendizaje profundo, ya que requieren cantidades sustanciales de datos y pueden ser propensos al sobreajuste. Se recomienda combinarlos con métodos estadísticos tradicionales para obtener resultados óptimos.

Además, el orador aborda las preguntas de la audiencia relacionadas con la inversión de factores cuantitativos. Las preguntas cubren varios temas, como el uso de la acción del precio y los gráficos a largo plazo como factores para invertir, donde el orador sugiere que se puede usar como un factor técnico definiéndolo adecuadamente y estudiando su desempeño histórico. Se explica la distinción entre factores negociables y no negociables, con un ejemplo de bienes inmuebles como factor no negociable debido a la dificultad para determinar la liquidez. El enfoque de la inversión cuantitativa en factores se centra principalmente en los factores negociados, ya que sus datos son fácilmente accesibles y permiten realizar pruebas retrospectivas. El orador también brinda información para determinar si una empresa está más enfocada en el valor o en el crecimiento, y sugiere técnicas como el uso de la relación precio-beneficio para definir las acciones de valor.

La discusión continúa con la exploración de diferentes algoritmos utilizados en la inversión de factores cuantitativos. Se mencionan algoritmos como las redes neuronales recurrentes (RNN) y la memoria a corto plazo (LSTM), cuya relevancia depende del tipo de datos que se analicen. Se pueden emplear técnicas de aprendizaje profundo para combinar factores y determinar los pesos óptimos para cada factor, lo que da como resultado un mejor rendimiento de la cartera. El orador ofrece consejos sobre estrategias de factores de backtesting y enfatiza la importancia de probar su importancia estadística en múltiples conjuntos de datos y mercados. También se menciona el uso de las Bandas de Bollinger como indicador técnico para identificar mercados laterales.

Finalmente, el seminario web concluye con una sesión final de preguntas y respuestas, donde el orador aborda consultas adicionales de la audiencia. Las preguntas incluyen el papel de los algoritmos de aprendizaje profundo en la selección de sectores industriales, destacando varias opciones como árboles de decisión, redes neuronales y bosques aleatorios. Se enfatiza que la selección del algoritmo depende de la tarea específica y el conjunto de datos en cuestión. El orador reitera la importancia de usar algoritmos de aprendizaje profundo con cautela debido a sus requisitos de datos y potencial de sobreajuste. Se agradece a la audiencia por su participación y se les anima a dar su opinión sobre la sesión.

  • 00:00:00 Varun Kumar, analista cuantitativo de QuantInsti, presenta el concepto de inversión de factores cuantitativos y su clasificación en diferentes factores, como valor, impulso, calidad y tamaño. Explica que la inversión factorial implica seleccionar valores en función de factores específicos que se supone que impulsarán los rendimientos, y estos factores son fuentes técnicamente amplias y persistentes de riesgo y rendimiento. El seminario web cubre diferentes métodos cuantitativos que se pueden usar para aplicar la inversión de factores cuantitativa y las diferencias entre la inversión de factores general y la inversión de factores cuantitativa. La sesión concluye con un estudio de caso sobre la selección de los mejores factores y una discusión sobre cómo combinar los factores.

  • 00:05:00 El video proporciona una introducción a la inversión de factores cuantitativos y explica qué son los factores. Los factores son fuentes amplias y persistentes de riesgo y rendimiento, y guían a los inversores hacia un rendimiento cuantificable particular. Los factores comunes incluyen valor, impulso, calidad, tamaño y volatilidad. A modo ilustrativo, el vídeo se centra en el factor calidad, que implica invertir en empresas con características de alta calidad. La calidad de una empresa se cuantifica mediante una combinación de índices financieros, como el rendimiento del capital y la tasa de crecimiento de la rentabilidad. Una acción de alta calidad tendría índices altos y márgenes altos, mientras que las acciones de baja calidad tendrían índices más bajos y márgenes bajos. Luego, se puede crear una cartera con una combinación de acciones de alta calidad, que históricamente ha generado rendimientos excesivos durante largos períodos de tiempo. Los factores deben ser amplios y persistentes, generando rendimientos en una amplia gama de activos y durante largos períodos de tiempo, respectivamente.

  • 00:10:00 El orador analiza la clasificación de los factores en la inversión de factores cuantitativos. Los factores se clasifican en siete tipos, incluidos factores macro, factores basados en el estilo, factores sectoriales, factores basados en ESG, factores basados en el sentimiento, factores basados en la liquidez y factores técnicos. Explican cómo funcionan estos factores y cómo se pueden utilizar para crear una cartera de factores. Proporcionan ejemplos de estrategias creadas utilizando factores macroeconómicos y basados en el estilo, que implican el uso de variables como el crecimiento del PIB, la tasa de inflación, la tasa de interés y el rendimiento del capital para seleccionar acciones y crear una cartera. El administrador de fondos de cobertura utiliza dos criterios para seleccionar acciones y crear una cartera: mayor rendimiento sobre el capital y baja relación deuda-capital.

  • 00:15:00 El orador analiza varios factores que se pueden utilizar en las estrategias de inversión de factores cuantitativos. Estos factores incluyen factores de estilo, matriz sectorial, criterios ESG, sentimiento, liquidez e indicadores técnicos. El orador explica cómo se pueden usar estos factores para crear una lógica para una cartera y da ejemplos de estrategias que se pueden implementar usando estos factores. El orador también explica brevemente los criterios ESG, que significa criterios ambientales, sociales y de gobernanza, y cómo las organizaciones los usan para calificar a las empresas en función de su impacto en la sociedad y el medio ambiente. Finalmente, el orador responde una pregunta sobre los criterios ESG y menciona que lo discutirán más en las próximas secciones.

  • 00:20:00 El video analiza la inversión de factores cuantitativos y su uso de modelos matemáticos y análisis estadístico para identificar factores y su relación con las acciones. Estos métodos permiten eliminar los sesgos emocionales de las decisiones de inversión y la capacidad de explorar factores menos intuitivos. El video también enumera los siete métodos cuantitativos más utilizados, incluidos el análisis estadístico, el modelado de factores, el aprendizaje automático, los modelos de optimización, el análisis de series temporales, los modelos de riesgo y la simulación montagorial. Finalmente, el video aborda brevemente el uso del análisis estadístico para identificar patrones y correlaciones entre valores y factores.

  • 00:25:00 El video presenta la inversión de factores cuantitativos, que involucra el uso de análisis estadísticos para determinar la respuesta de una acción a ciertos factores. Esta información luego se usa para diseñar una cartera, con más dinero destinado a acciones que respondan más fuertemente a los factores identificados. Las técnicas de aprendizaje automático también se analizan como una forma de descubrir y combinar factores y hacer predicciones sobre el rendimiento futuro. El análisis de series de tiempo se puede utilizar para analizar datos históricos e identificar tendencias en los rendimientos, mientras que los modelos de riesgo y las simulaciones de Monte Carlo pueden ayudar en la gestión de riesgos. Las técnicas de optimización se utilizan para construir carteras y maximizar la exposición de los factores al mismo tiempo que se minimizan los riesgos y los costos de transacción.

  • 00:30:00 El video explora las diferentes ventajas de utilizar factores cuantitativos que invierten en la construcción y gestión de carteras de inversión. Una ventaja clave es la capacidad de simular condiciones de mercado extremas para poder comprender completamente las limitaciones de una cartera. El video también destaca las principales diferencias en el enfoque entre la inversión factorial tradicional y la cuantitativa, utilizando un estudio de caso de una cartera de acciones de gran capitalización con una baja relación precio-beneficio. El enfoque tradicional implica identificar el factor y determinar el universo de acciones de gran capitalización antes de calcular el factor para cada acción y ordenarlas de menor a mayor relación P/E. Por el contrario, el enfoque de inversión de factores cuantitativos utiliza la recopilación de datos, el preprocesamiento y la selección de características antes de construir un modelo para predecir los precios de las acciones en función de las características.

  • 00:35:00 El orador explica el proceso de inversión de factores cuantitativos, que consiste en construir un modelo para predecir los precios de las acciones en función de características específicas y evaluar la precisión del modelo antes de construir una cartera. Este enfoque está basado en datos y es más objetivo en comparación con la inversión de factores tradicional, lo que permite un análisis más subjetivo. La principal ventaja de utilizar la inversión de factores cuantitativos es que proporciona un análisis más preciso y fiable de los datos. Para seleccionar los mejores factores para invertir, los factores deben ser persistentes, funcionar en diferentes mercados y sectores, ser robustos a las diferentes condiciones del mercado, no demasiado sensibles a los cambios en la ética del mercado y permitir la inversión con suficiente liquidez y capacidad.

  • 00:40:00 El instructor analiza las cinco características clave de un mejor factor que incluyen: estar respaldado por evidencia empírica, tener una base económica o financiera, ofrecer oportunidades de inversión a largo plazo, ser invertible y ser intuitivo y ampliamente aceptado. Es importante combinar factores ya que reduce el riesgo de la cartera, aumenta la diversificación y reduce la volatilidad del rendimiento. Hay cinco métodos de uso común para combinar factores, que incluyen el peso igual y la puntuación de los factores, en los que cada factor se puntúa en función de su rendimiento histórico y se toma un promedio ponderado para obtener una puntuación general. El instructor enfatiza que una buena cartera no solo genera altos rendimientos, sino que también se desempeña con estabilidad a lo largo de múltiples ciclos y diferentes dinámicas de mercado.

  • 00:45:00 El orador analiza varios métodos para combinar factores en la inversión de factores cuantitativos. Uno de estos métodos es PCA (análisis de componentes principales), que combina múltiples factores en un conjunto más pequeño de componentes no correlacionados. Esto reduce el número de factores y elimina el problema de los factores correlacionados, conocido como multicolinealidad. Otro método es la inclinación de los factores, que consiste en ajustar las ponderaciones o las asignaciones de una cartera a un factor en particular. Esto es flexible y se puede utilizar para apuntar a factores específicos. Finalmente, el aprendizaje automático se puede utilizar para seleccionar o combinar factores en función del rendimiento histórico, capturando relaciones no lineales. Luego, el orador invita a la audiencia a hacer preguntas y comparte algunas ofertas para los asistentes.

  • 00:50:00 El orador responde varias preguntas relacionadas con la inversión de factores cuantitativos. La primera pregunta es sobre el uso de la acción del precio y los gráficos a largo plazo como factor para invertir, a lo que el orador responde que se puede usar como un factor técnico definiéndolo adecuadamente y estudiando su desempeño histórico. La segunda pregunta es si la capitalización es un factor, a lo que el hablante responde que el tamaño es un factor, y la capitalización puede usarse como uno de los factores para determinar una estrategia dependiendo de las condiciones del mercado. El orador también responde una pregunta sobre dónde obtener los datos, mencionando sitios web como Yahoo Finance y API pagas como Alpha Vantage. Por último, el ponente responde a una pregunta sobre cómo utilizar la inversión factorial cuantitativa en operaciones de media/alta frecuencia, afirmando que la inversión factorial es más adecuada para inversores a largo plazo.

  • 00:55:00 Los algoritmos son particularmente útiles para seleccionar sectores industriales. Hay varios algoritmos de aprendizaje profundo que se pueden usar para este propósito, como árboles de decisión, redes neuronales y bosques aleatorios. Depende de la tarea específica y el conjunto de datos en cuestión. Sin embargo, es importante tener en cuenta que los algoritmos de aprendizaje profundo deben usarse con precaución, ya que requieren grandes cantidades de datos y pueden ser propensos a sobreajustarse. Se recomienda usarlos en combinación con métodos estadísticos tradicionales para obtener resultados óptimos.

  • 01:00:00 El orador analiza los diferentes algoritmos utilizados en la inversión de factores cuantitativos, como RNN y LSTM, y cómo dependen del tipo de datos que se analizan. El aprendizaje profundo se puede utilizar para combinar factores y determinar los pesos para dar a cada factor un rendimiento óptimo. El orador también brinda consejos sobre cómo realizar pruebas retrospectivas de una estrategia de factores y probar su importancia estadística en múltiples conjuntos de datos y mercados. Sugieren usar las Bandas de Bollinger como un indicador técnico para identificar mercados laterales. También se explica la diferencia entre factores negociables y no negociables, donde los factores negociables se basan en valores negociables públicamente y los factores no negociables son aquellos que no pueden capturarse en los mercados públicos.

  • 01:05:00 El orador analiza la diferencia entre los factores negociables y los no negociables, utilizando los bienes inmuebles como ejemplo de un factor no negociable porque la liquidez no se puede determinar fácilmente. El enfoque de la inversión de factores cuantitativos está en los factores negociados, ya que los datos son fácilmente accesibles y públicos, lo que permite realizar pruebas retrospectivas. El orador también responde a la pregunta de un espectador sobre cómo determinar si una empresa está más centrada en el valor o en el crecimiento, sugiriendo técnicas como el uso de la relación precio-beneficio para definir las acciones de valor. Finalmente, se agradece a la audiencia por su participación y se la alienta a dar su opinión sobre la sesión.
 

Aprendizaje automático para el comercio de opciones



Aprendizaje automático para el comercio de opciones

En el seminario web sobre aprendizaje automático para el comercio de opciones, el orador, Varun Kumar Patula, comienza brindando una introducción al aprendizaje automático y su propósito fundamental. Explica que los algoritmos de aprendizaje automático se utilizan para analizar datos y descubrir patrones que pueden pasar desapercibidos para los humanos. Varun distingue entre inteligencia artificial, aprendizaje automático y aprendizaje profundo, enfatizando que el aprendizaje automático es un subconjunto de IA enfocado en entrenar modelos para hacer predicciones o decisiones basadas en datos. Además, clasifica el aprendizaje automático en tres tipos: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje reforzado, cada uno con sus propias características y aplicaciones.

Luego, el orador profundiza en la aplicación del aprendizaje automático en el comercio de opciones, un enfoque clave del seminario web. El comercio de opciones implica la compra o venta de contratos de opciones, que otorgan al titular el derecho de comprar o vender un activo a un precio específico dentro de un marco de tiempo específico. Varun destaca el alto riesgo que implica el comercio de opciones y explica cómo el aprendizaje automático puede mejorar la precisión del análisis, reduciendo así el riesgo. Elabora las diversas aplicaciones del aprendizaje automático en el comercio de opciones, incluidas las opciones de precios, el diseño de estrategias comerciales, el cálculo de la volatilidad y la previsión de la volatilidad implícita. Estas aplicaciones tienen como objetivo mejorar la toma de decisiones y aumentar la rentabilidad en el comercio de opciones.

Para comprender la necesidad del aprendizaje automático en el comercio de opciones, se analizan las limitaciones de los modelos tradicionales como el modelo Black-Scholes. El modelo Black-Scholes asume una tasa libre de riesgo y una volatilidad constantes, lo que puede no ser cierto en los escenarios del mundo real. Varun menciona modelos alternativos como el modelo alemán Candy y el modelo Heston, que tienen sus propias limitaciones y requisitos de parámetros de entrada. La solución propuesta es utilizar el aprendizaje automático como reemplazo o combinación de estos modelos, ya que permite un conjunto ampliado de funciones y parámetros de entrada. Los modelos de aprendizaje automático pueden considerar factores como la volatilidad implícita o realizada, las tasas de interés y otras características relevantes para determinar el precio justo de las opciones. Esto permite precios más precisos, selección de precios de ejercicio y estrategias de cobertura. Varun destaca que la investigación empírica indica que los modelos de aprendizaje profundo con múltiples capas ocultas, como el modelo de perceptrón de múltiples capas, superan al modelo Black-Scholes, particularmente para las opciones que están fuera del dinero o en el dinero.

El seminario web continúa explorando la optimización de las decisiones comerciales utilizando modelos de aprendizaje automático para estrategias de opciones. El proceso general implica analizar el sentimiento alcista o bajista del activo subyacente y seleccionar una estrategia adecuada en consecuencia. Sin embargo, muchas estrategias de opciones tienen distribuciones de riesgo-recompensa sesgadas, lo que requiere un análisis más refinado. El aprendizaje automático puede mejorar este análisis al considerar características como rendimientos pasados, impulso y volatilidad para brindar información sobre el activo subyacente. Luego, estas características se ingresan en un modelo de aprendizaje automático para clasificar el próximo período comercial como alcista o bajista. El video también aborda las características utilizadas en los datos del índice SP500 y enfatiza la importancia del análisis de características en las decisiones de estrategia de opciones.

A continuación, el ponente se centra en la construcción de modelos de aprendizaje automático para decisiones comerciales sobre diferenciales de opciones verticales. Explican que los parámetros de entrada siguen siendo los mismos que en el ejemplo anterior, donde se usa un clasificador de árbol de decisión para clasificar el siguiente día de negociación como alcista o bajista. Para aprovechar las opciones, se introducen diferenciales como los diferenciales de llamada alcista o los diferenciales de venta bajista, ya que limitan el riesgo. Los modelos de aprendizaje automático se combinan para pronosticar el rango comercial y la volatilidad del contrato. Al aprovechar estos modelos combinados, los operadores pueden determinar la configuración óptima para los diferenciales verticales en sus estrategias comerciales mientras pronostican la volatilidad implícita, que es crucial en el comercio de opciones.

Otra aplicación del aprendizaje automático en el comercio de opciones es pronosticar la volatilidad implícita y tomar decisiones calculadas sobre estrategias de opciones. Al ingresar la volatilidad implícita histórica y otras características relevantes en los modelos de aprendizaje automático, los comerciantes pueden pronosticar la volatilidad y seleccionar estrategias apropiadas como straddles cortos o estrangulados cortos. El orador comparte un estudio de caso en el que se construyó un modelo de aprendizaje automático para predecir la estrategia de opción más adecuada en función de una lista de estrategias y características de entrada, incluidos datos subyacentes y datos de opciones. Al diseñar un universo de estrategias y expandir el estudio para incluir diferentes contratos, los comerciantes pueden utilizar el aprendizaje automático para crear y seleccionar la mejor estrategia que se alinee con sus objetivos comerciales.

En el seminario web, el orador describe cómo crearon 27 estrategias diferentes para el comercio de opciones al explorar varias combinaciones de posiciones y contratos. Para refinar las estrategias, las filtraron hasta 20 mediante la eliminación de combinaciones que carecían de una posición en un llamador o se basaban en combinaciones poco prácticas como straddles cortos. Para determinar cuál de estas 20 estrategias proporcionaría los máximos rendimientos, el orador empleó un modelo de aprendizaje automático, específicamente un modelo de memoria a corto plazo (LSTM). Este modelo incorporó características de entrada de activos subyacentes, opciones y volatilidad, y utilizó un sistema de clasificación de clases múltiples para identificar la estrategia óptima para el despliegue.

El video también arroja luz sobre las características relacionadas con los grados de opción y la estructura de la red neuronal utilizada para el modelo LSTM. Al entrenar el modelo con aproximadamente 10 años de datos, generó etiquetas de estrategia basadas en las características de entrada. Los resultados demostraron que el modelo de aprendizaje automático superó al activo subyacente con el tiempo. Para mejorar la precisión de la predicción de los modelos de aprendizaje automático para las opciones, el orador recomienda varias prácticas recomendadas. Estos incluyen el uso de niveles de probabilidad para el ajuste fino, el empleo de múltiples modelos de visión, la implementación de la técnica del clasificador de votación y el aprovechamiento de la salida de múltiples clasificadores para entrenar otro modelo de aprendizaje automático para mejorar la precisión y la rentabilidad.

Además, el ponente explora métodos para mejorar el rendimiento de los modelos de clasificación en el comercio de opciones. Estos métodos implican el uso de niveles de probabilidad, el empleo de técnicas de conjunto mediante la combinación de múltiples clasificadores y el uso de modelos de aprendizaje automático para agregar los resultados de diferentes modelos. Se enfatiza la importancia del ajuste de hiperparámetros y técnicas de validación cruzada para lograr una mayor precisión en los modelos. El orador también destaca la importancia del comercio de papel antes de implementar una estrategia con dinero real. Esta práctica permite a los operadores identificar y abordar cualquier problema o desafío práctico antes de arriesgar el capital real.

Durante la sesión de preguntas y respuestas que sigue, el orador responde las preguntas de los asistentes. Las preguntas cubren varios temas, incluido el rendimiento de la estrategia de aprendizaje automático para el comercio de opciones, la metodología utilizada para seleccionar funciones para el modelo, los beneficios del aprendizaje automático sobre los indicadores técnicos existentes, el cálculo de la importancia de las funciones y el período de espera adecuado para el SPY (Índice Standard & Poor's 500). El orador aclara que el desempeño de la estrategia no se debe únicamente a la dirección del mercado en 2020, ya que los datos utilizados para el modelo se remontan a 2010 y abarcan períodos posteriores a 2020. Explican que el comercio de opciones requiere un análisis más complejo, considerando factores como opciones griegas y la volatilidad implícita, lo que hace que el aprendizaje automático sea una herramienta valiosa. La selección de funciones para el modelo se basa en una combinación de experiencia comercial y toma de decisiones informada.

Hacia el final del seminario web, el orador analiza los requisitos previos para el curso que lo acompaña y recomienda conocimientos previos de aprendizaje automático y cursos relacionados para maximizar sus beneficios. Si bien el curso se enfoca principalmente en la creación de modelos de aprendizaje automático para el comercio de opciones del S&P 500, los conceptos se pueden adaptar y aplicar a otros contratos con capacitación y personalización adicionales. El curso no proporciona un modelo de aprendizaje automático preconstruido, pero equipa a los participantes con el conocimiento y las habilidades necesarias para construir sus propios modelos.

El seminario web proporciona una descripción general completa de la aplicación del aprendizaje automático en el comercio de opciones. Cubre los conceptos básicos del aprendizaje automático, sus distinciones de otros campos relacionados y los tres tipos de algoritmos de aprendizaje automático. El seminario web enfatiza la necesidad del aprendizaje automático en el comercio de opciones debido a su capacidad para mejorar la precisión del análisis y mitigar el riesgo. Se analizan varias aplicaciones del aprendizaje automático en el comercio de opciones, incluidas las opciones de fijación de precios, el diseño de estrategias comerciales y la volatilidad implícita de pronóstico. El seminario web también explora la construcción de modelos de aprendizaje automático para diferenciales de opciones verticales y la optimización de las decisiones comerciales.

  • 00:00:00 El orador, Varun Kumar Patula, presenta la agenda del seminario web sobre aprendizaje automático para el comercio de opciones. Comienza con una breve introducción al aprendizaje automático y su propósito principal de usar algoritmos de aprendizaje automático para comprender o analizar datos y encontrar patrones internos que los humanos suelen pasar por alto. Luego, Varun explica las diferencias entre inteligencia artificial, aprendizaje automático y aprendizaje profundo. También señala que hay tres tipos de algoritmos de aprendizaje automático: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. Finalmente, destaca la necesidad de la aplicación del aprendizaje automático en el comercio de opciones y se sumerge en las principales aplicaciones que se encuentran tanto en la investigación como en la práctica, así como las mejores prácticas a tener en cuenta al aplicar técnicas de aprendizaje automático para el comercio de opciones.

  • 00:05:00 El ponente introduce el concepto de aprendizaje automático y su aplicación en varios campos, especialmente en servicios financieros como el comercio algorítmico, la gestión de carteras y la detección de fraudes. El enfoque de este seminario web es la aplicación del aprendizaje automático para el comercio de opciones. El orador explica que el comercio de opciones implica comprar o vender contratos de opciones, que ofrecen la opción de comprar o vender a un precio determinado y una deuda específica. Los comerciantes utilizan el comercio de opciones para la cobertura, la generación de ingresos o la especulación. El orador destaca el alto riesgo que implica el comercio de opciones y explica cómo el aprendizaje automático puede aumentar la precisión del análisis, reduciendo así el riesgo. El aprendizaje automático se utiliza en la valoración de opciones, el diseño de estrategias comerciales, el cálculo de la volatilidad y la previsión de la volatilidad implícita de una opción. La sección concluye discutiendo las limitaciones del modelo de Black-Scholes comúnmente utilizado.

  • 00:10:00 Se discuten las limitaciones del modelo Black-Scholes, como asumir una tasa libre de riesgo y una volatilidad constantes, junto con otros modelos como el modelo German Candy y el modelo Heston, que tienen sus propias limitaciones con respecto a los parámetros de entrada. La solución propuesta es implementar el aprendizaje automático como reemplazo o combinación de estos modelos, ya que el aprendizaje automático permite un aumento en el conjunto de funciones y parámetros de entrada ampliados, a diferencia de los modelos tradicionales. El modelo ML puede identificar el precio justo de las opciones mediante el uso de la volatilidad implícita o realizada, las tasas de interés y otras características como entrada, lo que permite la fijación de precios, la selección del precio de ejercicio y las aplicaciones de cobertura. La investigación empírica muestra que el modelo de mejor rendimiento es el modelo de aprendizaje profundo con múltiples capas ocultas, el modelo de perceptrón de múltiples capas, que supera al modelo de Black-Scholes, especialmente cuando está fuera del dinero o en el dinero.

  • 00:15:00 El video analiza cómo se puede usar el aprendizaje automático para optimizar las decisiones comerciales utilizando estrategias de estado de opciones. El proceso general para un comerciante implica analizar el activo subyacente y decidir si es alcista o bajista y, en base a eso, seleccionar una estrategia. Sin embargo, muchas estrategias de opciones son altamente riesgosas con un sesgo en la distribución de riesgo-recompensa, por lo que implementar el aprendizaje automático puede mejorar el análisis del activo subyacente y brindar un mejor análisis de sentimiento. El esquema para construir una arquitectura ML implica el uso de modelos ML para realizar análisis de sentimiento o pronosticar el activo subyacente. Las características como rendimientos pasados, impulso y volatilidad se utilizan para brindar información sobre el activo, y estas se ingresan en el modelo de aprendizaje automático para clasificar si el próximo período comercial será alcista o bajista. El video también analiza las funciones utilizadas en los datos del índice SP500 y la importancia del análisis de funciones.

  • 00:20:00 El orador analiza la construcción de modelos de aprendizaje automático para decisiones comerciales sobre diferenciales de opciones verticales. Los parámetros de entrada siguen siendo los mismos que en el ejemplo anterior, donde se usa un clasificador de árbol de decisión para clasificar el siguiente día de negociación como alcista o bajista. Para aprovechar las opciones, se introducen diferenciales, como diferenciales de llamada alcista o diferenciales de venta bajista, donde el riesgo es limitado. La idea de combinar modelos de aprendizaje automático entra en juego cuando un modelo pronostica el rango comercial y otro modelo pronostica si el contrato será altamente volátil o bajo. Mediante el uso de combinaciones de estos modelos, un operador puede decidir la configuración óptima de diferenciales verticales para las estrategias comerciales, al mismo tiempo que pronostica la volatilidad implícita, que es especialmente importante para el comercio de opciones.

  • 00:25:00 El orador explica cómo se pueden usar los modelos de aprendizaje automático en el comercio de opciones pronosticando la volatilidad implícita y tomando decisiones calculadas sobre qué estrategia tomar. Al ingresar la volatilidad implícita histórica y otras características como entradas para los modelos de aprendizaje automático, los comerciantes pueden pronosticar la volatilidad y tomar posiciones en consecuencia con estrategias como short straddle o short strangle. Luego, el orador describe un estudio de caso en el que se creó un modelo de aprendizaje automático para predecir qué estrategia de opción implementar en función de una lista de estrategias y características de entrada, como datos subyacentes y datos de opciones. Al diseñar el universo de la estrategia y expandir el estudio para incluir diferentes contratos, los comerciantes pueden usar el aprendizaje automático para crear y elegir la mejor estrategia para sus necesidades comerciales.

  • 00:30:00 El orador explica cómo crearon 27 estrategias diferentes para el comercio de opciones usando varias combinaciones de posiciones y contratos. Filtraron estas estrategias hasta 20 mediante la eliminación de combinaciones que no incluían una posición en un igualador, o se basaron en combinaciones poco prácticas, como straddles cortos. Luego utilizaron un modelo de aprendizaje automático, específicamente un modelo de memoria a corto plazo, para determinar cuál de estas 20 estrategias proporcionaría los máximos rendimientos. El modelo tomó las características de entrada de los activos subyacentes, las opciones y la volatilidad, y utilizó un sistema de clasificación de clases múltiples para determinar la mejor estrategia a implementar.

  • 00:35:00 El video analiza el uso de ciertas funciones relacionadas con los grados de opción y la estructura de la red neuronal utilizada para el modelo LSTM. El modelo se entrena con aproximadamente 10 años de datos y proporciona etiquetas de estrategia basadas en las características de entrada. Los resultados muestran que supera al activo subyacente con el tiempo. Las mejores prácticas sugeridas para una mejor predicción de los modelos de aprendizaje automático para las opciones incluyen el uso de niveles de probabilidad para el ajuste fino, el uso de múltiples modelos de visión, el uso de la técnica del clasificador de votación y la entrega de la salida de múltiples clasificadores a otro modelo de ML para una mayor precisión y rentabilidad.

  • 00:40:00 El orador analiza los métodos para mejorar el rendimiento de un modelo de clasificación para el comercio de opciones, como el uso de niveles de probabilidad, la multiplicación de árboles, la combinación de diferentes clasificadores a través de técnicas justas de clase trabajadora y el uso de un modelo de aprendizaje automático para tomar la salida de múltiples modelos como entrada. El orador también enfatiza la importancia del ajuste de hiperparámetros y las técnicas de validación cruzada para una mayor precisión. Además, se destaca la importancia del comercio de papel antes de implementar una estrategia, ya que permite identificar cualquier problema práctico antes de usar dinero real. Sigue una sesión de preguntas y respuestas, en la que un asistente pregunta sobre la experiencia del orador.

  • 00:45:00 El disertante analiza el uso de Delta en el comercio de opciones, afirmando que puede ser una estrategia rentable dependiendo de la capacidad de riesgo-recompensa y los activos subyacentes en la cartera. Advierten contra confiar únicamente en una estrategia de cobertura Delta y sugieren usarla junto con otras estrategias. El orador también aborda preguntas sobre el uso de modelos que no coinciden con los precios del mercado, el cálculo de la importancia de las características y el período de espera para el SPY. Explican cómo calcular la importancia de las características y afirman que se pueden usar diferentes períodos de tenencia para pronosticar el activo subyacente.

  • 00:50:00 El orador responde las preguntas de los espectadores relacionadas con el rendimiento de la estrategia de aprendizaje automático para el comercio de opciones y la metodología utilizada para llegar a las características del modelo. Explican que el desempeño de la estrategia no se debe únicamente a que el mercado sea direccional en 2020, ya que los datos utilizados para el modelo se remontan a 2010 y van más allá de 2020. Cuando se le preguntó sobre los beneficios del aprendizaje automático sobre los indicadores técnicos existentes, el orador enfatiza que el comercio de opciones requiere un análisis de datos más complejo, incluidas las opciones griegas y la volatilidad implícita, lo que hace que el aprendizaje automático sea una herramienta valiosa. Finalmente, el orador explica que las características del modelo se seleccionaron en base a una combinación de experiencia en el comercio y decisiones informadas.

  • 00:55:00 El orador analiza los diversos factores que intervienen en la toma de decisiones comerciales informadas mediante el aprendizaje automático, como los rendimientos anteriores y los indicadores técnicos. También mencionan el uso de características comúnmente tomadas por comerciantes y corredores manuales. En respuesta a una pregunta sobre el modelo LSTM, explican que, si bien los resultados actuales se basan en datos diarios, los algoritmos de negociación de frecuencia alta o media también pueden utilizar datos tick por tick. Otra pregunta indaga sobre el número de operaciones en el conjunto de entrenamiento, a lo que explican que depende del caso y la proporción fue de 70:30. Por último, diferencian entre combinar y apilar modelos Ensemble y explican cómo la combinación implica tomar los resultados de múltiples modelos para entrenar un modelo nuevo.

  • 01:00:00 El curso cubre los conceptos básicos del aprendizaje automático y su aplicación al comercio de opciones. El curso se centra en la creación de modelos de aprendizaje automático específicamente para el comercio de opciones SP500, pero los conceptos se pueden aplicar a otros contratos con más capacitación y ajustes. El curso no proporciona un modelo de aprendizaje automático listo para usar, pero brinda el conocimiento y las habilidades necesarias para construir uno.

  • 01:05:00 En esta sección, el orador analiza los requisitos previos para el curso y menciona que el conocimiento previo de Machine Learning y cursos relacionados sería útil para aprovechar al máximo este curso. El orador también reconoce las numerosas preguntas recibidas y asegura a la audiencia que serán respondidas al final del seminario web a través de una encuesta. El seminario web concluye con el orador agradeciendo a la audiencia y alentándolos a brindar comentarios para mejorar las sesiones futuras.
 

Asignación de activos de cartera con ML y optimización para acciones de dividendos | Proyecto de comercio de algo



Asignación de activos de cartera con ML y optimización para acciones de dividendos | Proyecto de comercio de algo

La primera presentación en el evento la realiza Raimondo Mourinho, un ingeniero independiente de IA y big data conocido por su trabajo con pequeñas y medianas empresas en Italia, brindando soluciones de IA para diversas funciones corporativas. Mourinho cree en la combinación de técnicas de aprendizaje automático, estadísticas y probabilidad para crear sistemas comerciales avanzados. En su presentación, comparte su marco práctico y escalable para desarrollar modelos de aprendizaje automático en la asignación de activos de cartera.

Mourinho comienza presentando los componentes clave necesarios para diseñar un sistema de este tipo. Él enfatiza la importancia de adoptar una mentalidad de cartera, utilizar modelos de aprendizaje automático para convertir ideas en estrategias prácticas y aprovechar el poder de las capacidades de múltiples CPU, múltiples núcleos y GPU. Estos ingredientes forman la base de su marco. Si bien menciona brevemente la necesidad de una infraestructura cuando se ponga en marcha, se centra en los bloques elementales del marco para el comercio de baja y media frecuencia, y reconoce que la parte final del marco está más allá del alcance de la presentación.

Luego, el orador profundiza en las competencias necesarias para construir un marco sólido para la asignación de activos de cartera utilizando el aprendizaje automático y la optimización para acciones de dividendos en Python. Enfatiza la necesidad de una sólida comprensión de las técnicas de cartera, la programación orientada a objetos, las técnicas de procesamiento múltiple y la programación asincrónica. Además, se considera valiosa la experiencia en herramientas de optimización de hiperparámetros, lenguaje SQL y tecnología Docker. Mourinho procede a explicar el primer paso del marco, que implica la optimización de una base de datos para series temporales, el preprocesamiento de datos, el manejo de datos faltantes y atípicos, la normalización de datos y la selección de activos dentro del universo de activos designado.

La presentación pasa a discutir la fase de generación alfa, que corresponde a la terminología de aprendizaje automático para generar señales comerciales. Mourinho destaca que durante esta fase, los comerciantes incorporan sus ideas utilizando varios indicadores, análisis de sentimiento y modelos econométricos. El paso siguiente implica la selección de características, donde las características redundantes, como las características constantes y casi constantes, las características no estacionarias y las características correlacionadas linealmente, se eliminan mediante un método basado en rangos. Además, menciona la utilización de diferenciación fraccionaria, una técnica que mantiene la estacionariedad deseada mientras conserva información crucial dentro de las características. Estas mejoras son parte integral del marco de Mourinho para la asignación de activos de cartera utilizando el aprendizaje automático y la optimización para acciones de dividendos.

El reequilibrio, que incluye la selección de activos y la asignación de peso, se explica detalladamente en el proceso de aprendizaje. Mourinho emplea un impulso transversal, basado en la fuerza relativa entre activos, para la selección de activos. Para la asignación de peso, combina técnicas tradicionales como el algoritmo de línea crítica, la cartera de volatilidad inversa y la cartera de igual ponderación con modelos de aprendizaje automático como la paridad de riesgo jerárquico y la contribución de riesgo igual jerárquico. El orador muestra los resultados de la simulación y evalúa el rendimiento utilizando datos históricos. También menciona su intención de mejorar aún más la cartera mediante la incorporación de técnicas como la estrategia Drunken Monkey y la validación cruzada combinatoria purgada. Además, Mourinho destaca la importancia de una gestión eficaz del dinero al aplicar estas técnicas a escenarios comerciales reales.

Para abordar la estimación de la variabilidad de los parámetros, Mourinho recomienda emplear técnicas como la simulación Monte Carlo y el bootstrapping. Presenta los resultados de su análisis, centrándose en la riqueza terminal y los percentiles máximos de reducción. El orador enfatiza la importancia de permanecer basado en datos y no apegarse demasiado a ideas comerciales específicas. También aconseja mitigar el riesgo idiosincrásico mediante el empleo de diferentes técnicas y evitar el sobreajuste mediante la selección de sistemas más simples con un rendimiento comparable. Por último, subraya la necesidad de monitorear y ajustar continuamente los sistemas de negociación en vivo debido a la naturaleza no estacionaria de los datos de series temporales.

Durante la sesión de preguntas y respuestas, Mourinho responde a varias preguntas de la audiencia. Un participante pregunta sobre el paso más crítico del proceso, a lo que Mourinho destaca que el preprocesamiento de datos es esencial y requiere mucho tiempo. Otra consulta gira en torno a la normalización de datos, y Mourinho sugiere la práctica común de restar la media y dividir por la desviación estándar en la mayoría de los casos. Con respecto a la eliminación de la correlación lineal mediante el análisis de componentes principales (PCA), reconoce su posibilidad, pero advierte sobre la posible pérdida de significado de las características y sugiere considerar modelos como el índice de Sharpe para interpretar los resultados de manera efectiva.

El orador procede a discutir el uso de PCA para la selección de características y su impacto potencial en la interpretabilidad de las características. Se recomienda a los aspirantes a comerciantes cuantitativos y algorítmicos que consideren EPAT (Programa Ejecutivo en Comercio Algorítmico) como un valioso punto de partida. Destacan que el programa ofrece objetivos de aprendizaje integrales alineados con los requisitos de la industria. A los asistentes al seminario web se les ofrece una admisión anticipada extendida al programa y pueden reservar una llamada de asesoramiento del curso para comprender cómo puede ayudarlos a lograr sus objetivos profesionales, ya sea estableciendo una mesa de negociación algorítmica o incorporando tecnologías y herramientas avanzadas en su negociación. estrategias.

Kurt Celestog, director de proyectos de Hong Kong Exchange and Clearing Limited, sube al escenario para compartir su proyecto sobre gestión de carteras, que amplía la conferencia de Jay Palmer sobre gestión cuantitativa de carteras. El proyecto de Celestog se centra en optimizar la rentabilidad por dividendo a través de la gestión de carteras. Su objetivo es generar un flujo regular de ingresos por dividendos al mismo tiempo que garantiza la estabilidad y el crecimiento en los pagos de dividendos, todo mientras se mantiene el valor de la cartera. Su objetivo es superar el índice de referencia o ETF tanto en rendimiento de dividendos como en rendimiento de precios a través de técnicas óptimas de gestión de cartera. Celestog enfrentó el desafío de adquirir datos de dividendos y desarrolló funciones de web scraping para descargarlos. Dividió el conjunto de datos en dos partes, cada una de las cuales abarcaba diez años y abarcaba recesiones y expansiones económicas.

El orador analiza los desafíos encontrados durante el proceso de limpieza de datos para la optimización de la cartera de acciones de dividendos. Los datos obtenidos del sitio web no estaban limpios y requirieron modificaciones y normalización para expresar dividendos en montos en dólares, especialmente con los dividendos anticipados inicialmente presentados como porcentajes. Los datos de precios se obtuvieron de Yahoo Finance y se calcularon métricas como el rendimiento anual de dividendos, el crecimiento de dividendos y el crecimiento promedio. Se derivó un índice compuesto para todas las acciones seleccionadas para crear dos carteras: una cartera igualmente ponderada y una cartera optimizada por ponderación. El ponente pretendía analizar si una única optimización, seguida de un período de tenencia de diez años, superaría al índice de referencia y al ETF.

Luego, el orador comparte los resultados del proyecto de optimización de cartera utilizando técnicas de aprendizaje automático. Los gráficos presentados muestran burbujas verdes en el cuadrante superior izquierdo, que representan las cinco acciones con la métrica combinada más alta. Tanto las carteras de igual ponderación como las de ponderación óptima mostraron rendimientos medios y rendimientos de dividendos más altos que el índice de referencia. Sin embargo, durante los siguientes diez años, las acciones bancarias y tecnológicas ganaron más popularidad, lo que provocó que el rendimiento de la cartera optimizada cayera en relación con el índice de referencia. Para mejorar el rendimiento, el orador experimentó reequilibrando las carteras con regularidad y seleccionando las cinco mejores acciones en función de la métrica elegida. Las carteras reequilibradas superaron al índice de referencia y demostraron una mayor rentabilidad por dividendo.

El orador enfatiza cómo la optimización de la cartera y el reequilibrio regular pueden conducir a mayores rendimientos de dividendos y superar los índices de referencia, especialmente con acciones de dividendos como Real Estate Investment Trusts (REIT). Al reequilibrar las carteras cada seis meses y explorar diferentes períodos retrospectivos, el orador superó con éxito al índice en términos de rendimiento promedio de dividendos, crecimiento de dividendos, rendimiento y menores retiros. Sin embargo, reconocen los desafíos en la obtención y limpieza de datos y señalan que la función de reequilibrio puede ser compleja, lo que sugiere el uso de programación orientada a objetos para abordar esta complejidad. En general, el orador destaca que la optimización de la cartera y el reequilibrio regular son herramientas valiosas para los inversores.

El orador señala que el reequilibrio frecuente de la cartera es crucial para lograr un rendimiento superior. Sin embargo, debido a la poca frecuencia de disponibilidad de datos de dividendos para acciones de dividendos, es difícil reequilibrar con más frecuencia que una o dos veces al año. El orador también enfatiza la necesidad de seguir trabajando en el proyecto, incluida la exploración de diferentes criterios de optimización, la incorporación de más acciones en la cartera para una mayor diversificación y la realización de pruebas retrospectivas exhaustivas. Sugieren expandir el universo de lecturas y discutir el impacto de los costos de transacción en el rendimiento de la cartera.

Durante la sesión de preguntas y respuestas, Celestog responde las preguntas de la audiencia. Un participante pregunta sobre el rendimiento de la cartera de igual ponderación en comparación con la cartera optimizada. Celestog explica que, en general, la cartera de igual ponderación se desempeñó bien, pero la cartera optimizada produjo mayores rendimientos, lo que demuestra la eficacia de las técnicas de optimización de cartera. Otro asistente pregunta sobre el impacto de los costos de transacción en el desempeño de la cartera. Celestog reconoce que los costos de transacción pueden tener un impacto significativo y sugiere incorporarlos en el proceso de optimización para obtener una representación más precisa del desempeño en el mundo real. También menciona la importancia de considerar el deslizamiento en escenarios comerciales en vivo y aconseja a los participantes que prueben a fondo sus estrategias utilizando datos históricos antes de implementarlas en el comercio en vivo.

En general, las presentaciones en el seminario web arrojaron luz sobre los aspectos prácticos de la asignación de activos de cartera utilizando técnicas de optimización y aprendizaje automático para acciones de dividendos. Los oradores destacaron la importancia del preprocesamiento de datos, la selección de características, el reequilibrio y el monitoreo regular para lograr resultados exitosos. También enfatizaron la necesidad de aprendizaje continuo, adaptabilidad y exploración de diferentes estrategias para navegar la naturaleza dinámica de los mercados financieros. La audiencia obtuvo información valiosa sobre los desafíos, las técnicas y los beneficios potenciales de utilizar el aprendizaje automático en la gestión de carteras.

  • 00:00:00 La primera presentación es sobre asignación de activos de cartera presentada por Raimondo Mourinho. Mourinho es un ingeniero independiente de inteligencia artificial y big data que trabaja con varias pequeñas y medianas empresas en Italia para crear soluciones integrales de inteligencia artificial para funciones corporativas como marketing, recursos humanos, ventas y producción. Él cree en la combinación de técnicas de aprendizaje automático con estadísticas y probabilidad para diseñar sistemas comerciales superiores. En la presentación, Mourinho comparte su marco práctico y escalable para el desarrollo de aprendizaje automático en la asignación de activos de cartera.

  • 00:05:00 El orador presenta el marco escalable para la asignación de peso de cartera y explica los ingredientes necesarios para diseñar dicho sistema. Los tres ingredientes incluyen el diseño de un sistema con una mentalidad de cartera, el uso de modelos de aprendizaje automático para convertir ideas y el aprovechamiento de las capacidades de múltiples CPU, múltiples núcleos y GPU. El orador también comparte los bloques elementales del marco para el comercio de baja y media frecuencia y menciona brevemente la necesidad de una infraestructura cuando se pone en marcha. El orador no cubre la última parte del marco ya que está fuera del alcance de la presentación.

  • 00:10:00 El orador analiza las competencias necesarias para crear un marco para la asignación de activos de cartera utilizando el aprendizaje automático y la optimización para acciones de dividendos en Python con clases. Son necesarias competencias como el conocimiento de técnicas de portafolio, programación orientada a objetos, técnicas de multiprocesamiento y programación asíncrona. También es importante el uso de herramientas de optimización de hiperparámetros, el conocimiento del lenguaje SQL y la tecnología Docker. Luego, el orador pasa a discutir el primer paso del marco, que implica la optimización de una base de datos para series temporales, el preprocesamiento de datos, el manejo de datos faltantes y valores atípicos, la normalización de datos y la selección de activos dentro del universo de activos.

  • 00:15:00 El orador analiza la fase de generación alfa en términos de terminología de aprendizaje automático, que se conoce comúnmente entre los comerciantes como la fase de generación alfa. Durante esta fase, el comerciante agrega cualquier idea que le venga a la mente utilizando varios indicadores, análisis de sentimiento y modelos econométricos. El siguiente paso es la fase de selección de funciones, donde se eliminan las funciones innecesarias, incluidas las funciones constantes y casi constantes, las funciones no estacionarias y las funciones correlacionadas linealmente mediante un método basado en rangos. El orador también menciona el uso de la diferenciación fraccionaria, que permite la estacionariedad deseada al tiempo que conserva cierta información dentro de la característica misma. Estas son las mejoras en las que está trabajando el orador como parte de su marco para la asignación de activos de cartera con ML y optimización para acciones de dividendos.

  • 00:20:00 El orador explica la fase de reequilibrio del canal de aprendizaje, que implica la selección de activos y la asignación de peso. Para la selección de activos, el orador usa un impulso transversal basado en la fuerza relativa entre los activos. Para la asignación de peso, se utilizan técnicas tradicionales como el algoritmo de línea crítica, la cartera de volatilidad inversa y la cartera de igual ponderación junto con modelos de aprendizaje automático como la paridad de riesgo jerárquico y la contribución de riesgo jerárquico igual. Se muestran los resultados de las simulaciones y el orador evalúa el rendimiento utilizando datos históricos. El orador planea mejorar la cartera agregando técnicas como la estrategia Drunken Monkey y la validación cruzada combinatoria purgada. Por último, el ponente destaca la importancia de la gestión del dinero a la hora de aplicar estas técnicas al trading real.

  • 00:25:00 El orador analiza la importancia de estimar el rango de variabilidad de los parámetros y sugiere utilizar técnicas como la simulación de Monte Carlo y el arranque para lograrlo. Luego presentan los resultados de su análisis centrándose en la riqueza terminal y los percentiles máximos de reducción. El orador enfatiza la necesidad de basarse en datos y no enamorarse de las ideas comerciales. También recomiendan la mitigación del riesgo idiosincrático mediante el uso de diferentes técnicas y evitando el sobreajuste eligiendo sistemas más simples con un rendimiento comparable. Finalmente, enfatizan la necesidad de monitorear y ajustar los sistemas de negociación en vivo debido a la naturaleza altamente no estacionaria de las series temporales.

  • 00:30:00 Los oradores discuten algunas preguntas de la audiencia sobre la asignación de activos de cartera utilizando ML y optimización para acciones de dividendos. Un miembro de la audiencia pregunta qué paso de la canalización merece más atención, a lo que Raymond responde que el preprocesamiento de datos es esencial y el paso que consume más tiempo. Otra pregunta se refiere a la normalización de datos, y Raymond sugiere que restar la media y dividir por la desviación estándar funciona bien en la mayoría de los casos. Por último, cuando se le preguntó acerca de eliminar la correlación lineal mediante PCA, Raymond menciona que es posible, pero advierte que podría perder el significado de la función y sugiere utilizar modelos como Sharpe Ratio para explicar los resultados.

  • 00:35:00 El orador analiza el uso de PCA para la selección de funciones y la posible pérdida de significado de las funciones después de aplicar PCA. Aconseja a los aspirantes a comerciantes cuantitativos y algorítmicos que consideren EPAT como un gran comienzo y menciona que el programa ofrece objetivos de aprendizaje integrales alineados con las necesidades de la industria. La admisión anticipada para el programa se extiende a los asistentes al seminario web, y pueden reservar una llamada de asesoramiento del curso para comprender cómo el programa puede ayudarlos a lograr sus objetivos profesionales, incluido el inicio de una mesa de negociación algorítmica o la aplicación de tecnologías y herramientas avanzadas en sus estrategias comerciales.

  • 00:40:00 Kurt Celestog, director de proyectos de Hong Kong Exchange and Clearing Limited, comparte su proyecto sobre gestión de carteras, que amplía la conferencia cuantitativa de Jay Palmer sobre gestión de carteras para optimizar la rentabilidad de los dividendos a través de la gestión de carteras. Su motivación es obtener un flujo regular de ingresos por dividendos y al mismo tiempo garantizar que sus pagos de dividendos sean estables y crezcan con el tiempo y que el valor de la cartera no disminuya con el tiempo. Su objetivo es superar al índice de referencia o ETF tanto en rendimiento de dividendos como en rentabilidad de precios a través de técnicas óptimas de gestión de cartera. Celestog se enfrentó al desafío de obtener datos de dividendos y tuvo que codificar funciones de web scraping para descargarlos y dividió el conjunto de datos en dos partes, de 10 años cada una, que cubrían recesiones y expansiones económicas.

  • 00:45:00 El orador analiza los desafíos que enfrenta la limpieza de datos para la optimización de la cartera de acciones de dividendos. Los datos del sitio web no estaban limpios, por lo que hubo que modificarlos y normalizarlos para que los dividendos se expresaran en dólares y los dividendos anticipados en porcentajes. Los datos de precios se obtuvieron de las finanzas de Yahoo y se calcularon a partir de los datos métricas como el rendimiento anual de dividendos, el crecimiento de dividendos, el crecimiento promedio, entre otras métricas de precios. Se calculó un índice compuesto para todas las diferentes acciones seleccionadas que se utilizó para crear dos carteras, una con la misma ponderación y la otra con una cartera de peso optimizado. El ponente quería analizar si una sola optimización, seguida de mantener la cartera durante diez años, superaría al índice de referencia y al ETF.

  • 00:50:00 El orador analiza los resultados de la optimización de su cartera con el proyecto de aprendizaje automático. El cuadrante superior izquierdo de los gráficos muestra burbujas verdes que representan las cinco acciones con la métrica combinada más alta. El ponente calculó las carteras de igual ponderación y de ponderación óptima, ambas con una rentabilidad media y una rentabilidad por dividendo superiores a las del índice de referencia. Sin embargo, en los siguientes diez años, las acciones bancarias y tecnológicas se hicieron más populares y la cartera optimizada comenzó a funcionar peor que el índice de referencia. El ponente trató de mejorar su rendimiento reequilibrando cada período y seleccionando las cinco mejores acciones en función de la métrica elegida. Las carteras reequilibradas superan al índice de referencia y tienen una mayor rentabilidad por dividendo.

  • 00:55:00 El orador analiza cómo la optimización de la cartera y el reequilibrio regular pueden lograr un mayor rendimiento de dividendos y superar los índices de referencia, especialmente con acciones de dividendos como los fondos de inversión en bienes raíces (REIT). Al reequilibrar las carteras cada seis meses y utilizar diferentes períodos retrospectivos, el ponente pudo superar al índice tanto en términos de rendimiento promedio de dividendos, crecimiento de dividendos, rendimiento y menores retiros. Sin embargo, la obtención y limpieza de datos resultó ser un desafío, y la función de reequilibrio era compleja, lo que podía abordarse mediante la programación orientada a objetos. En general, el orador sugiere que la optimización de la cartera y el reequilibrio regular pueden ser herramientas valiosas para los inversores.

  • 01:00:00 El orador señala que es necesario un reequilibrio frecuente de la cartera para obtener un rendimiento superior, pero la poca frecuencia de los datos de dividendos para acciones o lecturas de dividendos dificulta el reequilibrio con más frecuencia que una o dos veces al año. El orador también destaca la necesidad de seguir trabajando en el proyecto, como explorar diferentes criterios de optimización, agregar más acciones a la cartera para una mayor diversificación y realizar pruebas retrospectivas más extensas. También sugieren ampliar el universo de lecturas y existencias y mantener una base de datos personal debido al limitado historial y al sesgo de supervivencia. Finalmente, responden preguntas de la audiencia sobre la región de mercado limitada utilizada en el proyecto y el procedimiento de optimización de peso utilizado.

  • 01:05:00 El orador analiza cómo los valores atípicos pueden afectar los modelos de aprendizaje automático, en particular, la regresión lineal y las redes neuronales. Estos modelos son muy sensibles a los valores atípicos y, por lo tanto, el orador recomienda tratar los valores atípicos utilizando técnicas como rangos intercuartílicos, lazo y regresión de cresta. Sin embargo, sugiere que los modelos lineales aún brindan los mejores resultados en el comercio, por lo que es importante tratar los valores atípicos. El orador también ofrece consejos sobre lo que se necesita para convertirse en un comerciante de algoritmos, y recomienda un enfoque multidisciplinario que incluye la comprensión de los mercados, la microestructura, las habilidades de codificación y los conceptos de aprendizaje automático.

  • 01:10:00 El orador analiza la importancia de aprender y comprender cómo aplicar lenguajes de programación, como Python, para diversificar y administrar la cartera de inversiones de manera efectiva. Resaltan los beneficios de tomar un curso integral en el comercio de algoritmos que cubre las funciones del mercado, la codificación y la gestión de riesgos, incluso para aquellos que no tienen la intención de participar en el comercio de alta frecuencia. La intensidad y la amplitud del curso ofrecen algo para todos y brindan una buena base para el uso personal en la vida financiera de uno. Los oradores concluyen con una discusión sobre sus planes futuros y la demanda de una mayor exploración de temas relacionados con el comercio de algoritmos en las próximas sesiones.
Razón de la queja: