Comercio Cuantitativo - página 6

 

Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"



Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"

Ernest Chan, the co-founder of Predictnow.ai, delves into the challenges faced by traditional portfolio optimization methods when dealing with regime changes in markets. He suggests that machine learning can provide a solution to this problem. Chan explains how his team applies machine learning techniques to portfolio optimization, with a focus on incorporating time series features that measure various financial aspects such as volatility, prices, and interest rates. By combining the Farmer-French Three Factor model with the understanding that ranking is more crucial than prediction, they aim to achieve optimal portfolio optimization.

Chan goes on to share concrete results of the CBO model's performance and provides examples of clients who have experienced improvements in their portfolio's performance using this approach. He emphasizes that machine learning models have the ability to adapt to regime changes, enabling them to respond effectively to evolving market conditions. Additionally, he discusses how returns for the S&P 500 Index and its components can be computed using a machine learning algorithm that utilizes time series features.

Furthermore, Chan highlights the ensemble approach employed by his team for optimization and speculation. He mentions their "secret sauce" that eliminates the need for extensive computational power. Rather than following a two-step process of predicting regimes and conditioning on their distribution of returns, they utilize visual factors to directly predict the portfolio's performance. Moreover, Chan clarifies that by including a significant portion of the training sample in their algorithm, the expected return aligns with past results.

Dr. Ernest Chan explains the challenges faced by traditional portfolio optimization methods in the presence of regime changes and emphasizes the role of machine learning in addressing this issue. He discusses the application of machine learning techniques, the importance of time series features, and the significance of ranking in achieving optimal portfolio optimization. He shares specific results and client success stories, highlighting the adaptability of machine learning models to changing market conditions. Chan also provides insights into the computation of returns using machine learning algorithms and sheds light on their ensemble approach and unique methodology.

  • 00:00:00 In this section, Ernest Chan discusses traditional portfolio optimization methods and the challenge of regime changes in the market, which means that a portfolio that was optimal in the past may not be optimal in the future. He explains that most methods use past historical returns or information as input and do not take into account regime changes. He suggests that machine learning can help to deal with this problem by making use of big data and all the variables observed across different markets. Machine learning can generate expected returns that are not solely based on historical returns and can therefore be better suited for dealing with regime changes.

  • 00:05:00 In this section, Ernest Chan discusses the concept of regime in finance and how it impacts optimization. He explains that while there are some feasible regimes like bear or bull markets, there are also hidden regimes that cannot be defined explicitly and are constantly changing. These regimes are hard to predict and ruin classical methods of optimization. This understanding led Dr. Chan to develop the technique of conditional portfolio optimization, which can measure and adapt to the current regime using a large number of variables. This technique can improve trading strategy performance under varying market conditions.

  • 00:10:00 In this section, Ernest Chan discusses the use of machine learning for optimization and how to adapt parameters using supervised learning. He explains that in supervised learning, there is a labeled target variable, such as the parameter to be optimized, which is the sharp ratio or the future one-month return of a trading strategy. The input is a combination of market and macroeconomic variables that measure the current regime and the control variables that the trader can adjust, forming a large dataset. To optimize, an exhaustive search of various combinations of the parameters is conducted to find the maximum sharp ratio, which is the conditional parameter optimization. Ernest Chan concludes with a simple example using a toy strategy that illustrates the combination of market features and control features to form one row for input.

  • 00:15:00 In this section, Ernest Chan explains how his team applies machine learning to portfolio optimization. The team uses the same machine learning approach they applied to parameter optimization to tackle this more extensive problem. They use big data as input features and implicit prediction of hidden regimes. Unlike classical portfolio optimization methods that solely rely on past returns and covariance of returns as input data, their method considers the current market condition, technical and fundamental indicators, and macroeconomic indicators to adapt to the regime and find the portfolio that is optimal under the current market condition. The team answers questions from the Q&A, explaining that they do not use simulation but real market data to compute returns given a particular hypothetical capital allocation.

  • 00:20:00 In this section, Ernest Chan explains the type of features used in portfolio optimization through machine learning. He emphasizes that only time series features are used and no cross-sectional features are involved. This method focuses on the characteristics of the portfolio or market regime as a whole, such as factors measuring finance, volatility, prices, and interest rates. While this may seem strange, Chan relates it to the Farmer-French Three Factor Model's explanatory quality. Using machine learning models, the objective is not to predict returns but to rank them accurately to achieve optimal portfolio optimization.

  • 00:25:00 In this section, Ernest Chan discusses the importance of ranking in financial applications and how it can be applied to portfolio optimization. He explains that traditional methods of using machine learning models to predict cross-sectional returns can result in a garbage in, garbage out situation if the return predictions are not accurate in magnitude and sign. However, with the CPO method, which combines the Fama-French Factor model and the notion that ranking is more important than prediction, the optimal solution is much more stable against errors in any step of the program. He also notes that this method can tolerate tremendous errors in machine learning prediction because of ranking.

  • 00:30:00 In this section, Ernest Chan discusses how the effect of behavioral finance can be measured using familiar market metrics such as the net Delta of options buying activities. He explains that his company uses this metric as one of the features in their CBO model, which takes into account the effect of the phenomenon, rather than the phenomenon's core cause. Chan then shares concrete results of the CBO model's performance, including beating the mean-variance method and outperforming traditional assets. Additionally, he provides an example of how the CBO method performed better in allocating weights to growth stocks and large-cap stocks during certain time periods compared to other methods.

  • 00:35:00 In this section, the speaker explains how the classical methods of investing and trading are fixed and not adaptive, unlike the CBO (Combinatorial Bayesian Optimization) method that outperforms classical methods because it can adapt to the market regime, resulting in better performance. The CBO is designed to optimize and recommend transactions, even though the existing portfolio already has transaction costs associated with it. The CBO does not incur additional transaction costs and only recommends buying more or less of particular stocks. The speaker then cites examples of clients who have adopted the CBO method and have seen an improvement in their portfolio's performance.

  • 00:40:00 In this section, Ernest talks about a case study where they were able to achieve positive returns in a stock portfolio despite constraints of zero to 25 percent on each stock. The portfolio consisted of tech stocks and was expected to crash badly in 2022, but their method of allocating 50 percent to cash during that period helped generate returns. When asked about reproducibility of their methods, Ernest explains that while some features like net Delta of options are important input features, they have disclosed a high-level description of them on their website. He also mentions using gradient process decision trees and other algorithms for machine learning, and their approach to defining market regime is through representation using hundreds of features.

  • 00:45:00 In this section, Chan explains how machine learning can be used for optimization by constructing a response variable, such as a Sharpe ratio, and fitting a function F for different scenarios of the control variable for each market state. The label of the supervised learning algorithm is the variable to be maximized, such as the Sharpe ratio, and each portfolio proposal is fed into the predictive formula until the best performing portfolio is found. Chan notes that the complexity of the problem does not scale linearly with the number of assets in the portfolio, but his team has developed an algorithm to manage the problem. The largest portfolio universe they have used is the S&P 500.

  • 00:50:00 In this section, Ernest Chan provides an example of how the machine learning model responds to regime changes by using the cash allocation as an indicator. When the bear market started in 2022, the model stayed in cash most of the time, saving the portfolio from negative returns. He also mentions that the objective function can be set to anything, not just the traditional maximum sharp ratio or return, due to the non-linear nature of the learning algorithm and optimization algorithm, and that constraints such as weights, ESG, and turnover can be applied. The software is flexible and can accommodate any market features that the client provides. Additionally, Chan mentions that the model can deal with stocks with short histories, as it allows for the addition and deletion of components in the portfolio, and the model can be retrained with each rebalance.

  • 00:55:00 In this section, Chan discusses the computation of returns for the S&P 500 Index and its components. He explains that using a machine learning algorithm to compute the portfolio's returns is different from using the Markowitz technique because the machine learning algorithm uses time series features rather than stock returns as input. Chan also notes that the regime change is defined by 180 variables, and daily, monthly, and quarterly measurements are used as features that are fed into a machine learning algorithm, which selects the top-ranked features useful in predicting the future of the portfolio. Finally, Chan reframes the problem as a ranking problem rather than a regression problem, and it can be reframed as a classification problem as well.

  • 01:00:00 In this section, the speaker discusses the possibility of using an ensemble of portfolios instead of just one optimal portfolio, but the research team needs to look into it further. They also confirm that if there are one million combinations of portfolios, the model would need to be trained on one million combinations each day of historical data. However, they mention their "secret sauce" that eliminates the need for such computational power. The speaker also explains that they don't use a two-step process of predicting regimes and then conditioning on that regime's distribution of returns, but instead, use the visual factor to predict the performance of a portfolio directly. They end the discussion by saying that the expected return would be similar to what happened in the past if they included a lot of that training sample in their model.
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
Ernest Chan (Predictnow.ai) - "How to Use Machine Learning for Optimization"
  • 2023.03.01
  • www.youtube.com
Abstract: Conditional Portfolio Optimization is a portfolio optimization technique that adapts to market regimes via machine learning. Traditional portfolio...
 

Aprendizaje automático financiero: la perspectiva de un profesional por el Dr. Ernest Chan



Aprendizaje automático financiero: la perspectiva de un profesional por el Dr. Ernest Chan

En este video informativo, el Dr. Ernest Chan profundiza en el ámbito del aprendizaje automático financiero, explora varios aspectos clave y arroja luz sobre consideraciones importantes. Enfatiza la importancia de evitar el sobreajuste y aboga por la transparencia en los modelos. Además, el Dr. Chan destaca los beneficios de utilizar modelos no lineales para predecir el comportamiento del mercado. Sin embargo, también analiza las limitaciones del aprendizaje automático en el mercado financiero, como la reflexividad y la dinámica cambiante del mercado.

Un punto crucial que enfatiza el Dr. Chan es la importancia de la experiencia en el dominio de la ciencia de datos financieros. Subraya la necesidad de seleccionar características para obtener una mejor comprensión de las variables esenciales que influyen en las conclusiones de un modelo. Al identificar estos datos importantes, los inversores y comerciantes pueden obtener información sobre sus pérdidas y comprender por qué se tomaron ciertas decisiones.

El Dr. Chan también aborda la aplicación del aprendizaje automático en la gestión de riesgos y la asignación de capital. Sugiere encontrar un nicho de mercado y evitar la competencia directa con organizaciones bien financiadas. Al hacerlo, los profesionales pueden mejorar sus posibilidades de éxito en estas áreas.

A lo largo del video, el Dr. Chan destaca las ventajas y los desafíos asociados con diferentes modelos y estrategias. Señala que, si bien las estrategias cuantitativas tradicionales, como los modelos lineales, son fáciles de entender y menos propensas al sobreajuste, luchan con la dependencia no lineal entre los predictores. Por el contrario, los modelos de aprendizaje automático se destacan en el manejo de relaciones no lineales, pero su complejidad y opacidad pueden plantear desafíos en la interpretación de sus resultados y la evaluación de la importancia estadística.

El Dr. Chan también analiza las limitaciones del uso del aprendizaje automático para predecir el mercado financiero. Él enfatiza que el mercado está en continua evolución, por lo que es difícil predecir con precisión. Sin embargo, sugiere que el aprendizaje automático puede tener éxito en la predicción de información privada, como las estrategias comerciales, donde es menos probable competir con parámetros idénticos.

Además, el Dr. Chan aborda la incorporación de datos fundamentales, incluidos datos categóricos, en modelos de aprendizaje automático. Señala que los modelos de aprendizaje automático tienen una ventaja sobre los modelos de regresión lineal en el manejo de datos categóricos y de valor real. Sin embargo, advierte que no se debe confiar únicamente en el aprendizaje automático y enfatiza que la experiencia profunda en el dominio sigue siendo crucial para crear funciones efectivas e interpretar los datos con precisión.

En el ámbito de la asignación de capital, el Dr. Chan destaca cómo el aprendizaje automático puede proporcionar rendimientos esperados más sofisticados, desafiando el uso del rendimiento pasado como único indicador del éxito futuro. También analiza los matices de la comprensión del mercado que puede ofrecer el aprendizaje automático, con probabilidades que varían diariamente, a diferencia de las distribuciones de probabilidad estáticas de las estadísticas clásicas.

El Dr. Chan concluye abordando las limitaciones del aprendizaje profundo en la creación de diversas funciones transversales que requieren experiencia en el dominio. Comparte sus pensamientos sobre la aplicabilidad del aprendizaje por refuerzo en los modelos financieros, destacando su efectividad potencial a altas frecuencias pero limitaciones en escalas de tiempo más largas.

Para aquellos interesados en explorar más a fondo el aprendizaje automático financiero, el Dr. Chan recomienda su empresa PredictNow.ai como un recurso valioso para la experiencia en aprendizaje automático financiero sin código.

  • 00:00:00 el hecho de que se están utilizando cada vez más. En esta sección del video, el Dr. Ernest Chan habla sobre su larga historia en el aprendizaje automático y cómo encontró valor al aplicarlo a las finanzas, lo que admite que ha sido difícil de hacer hasta hace poco. Aboga por modelos y estrategias simples, como modelos lineales y de un solo factor, que han funcionado bien para los comerciantes cuantitativos durante décadas. Con el auge del comercio cuantitativo, estos modelos se están volviendo menos rentables, y Chan explica cómo ha podido extraer valor del aprendizaje automático de una manera que la mayoría de la gente no está haciendo.

  • 00:05:00 En esta sección, el Dr. Ernest Chan analiza el tema histórico del sobreajuste en el aprendizaje automático financiero; cuando los modelos tenían que ajustarse a múltiples parámetros, el riesgo de sobreajuste es muy alto, especialmente cuando se trabaja con datos financieros de baja frecuencia como series temporales financieras diarias. Sin embargo, a lo largo de los años, los avances en el aprendizaje automático, en particular el aprendizaje profundo, hicieron posible superar el sobreajuste. Técnicas como el bosque aleatorio, la validación cruzada, el abandono y otras han ayudado a reducir el sobreajuste, y otras herramientas como los algoritmos han hecho que el aprendizaje automático sea transparente. El problema con el comercio de caja negra y la falta de transparencia es que no es aceptable no poder explicar por qué realizó ciertos intercambios, incluso si gana dinero.

  • 00:10:00 En esta sección, el Dr. Ernest Chan analiza el concepto de selección de características en el aprendizaje automático, que puede ayudar a los comerciantes e inversores a comprender mejor las variables importantes que conducen a la conclusión de un modelo de aprendizaje automático en particular. La selección de características puede ayudar a los inversores a obtener información sobre por qué perdieron dinero o por qué un modelo tomó una decisión equivocada al identificar las entradas importantes que conducen a ese resultado. El Dr. Chan también destaca que el aprendizaje automático se puede usar de manera más efectiva para la gestión de riesgos y la asignación de capital que como un generador de señales principal, ya que las predicciones del mercado están sujetas a la reflexividad, lo que crea dificultades para detectar patrones en el pasado.

  • 00:15:00 En esta sección, el Dr. Ernest Chan analiza las limitaciones del uso del aprendizaje automático para predecir el mercado financiero, que está en constante evolución y no se puede comparar con la predicción de enfermedades como el cáncer. Sin embargo, explica que usar el aprendizaje automático para predecir información privada, como estrategias comerciales, puede ser un enfoque exitoso ya que otros fondos de cobertura no compiten con los mismos parámetros exactos. También compara las estrategias cuantitativas tradicionales con las estrategias basadas en el aprendizaje automático, y señala que el aprendizaje automático puede ayudar a modelar conjuntos de datos grandes y alternativos a través de modelos no lineales.

  • 00:20:00 En esta sección, el Dr. Ernest Chan analiza los beneficios de usar modelos no lineales para predecir el comportamiento del mercado. Los modelos cuantitativos tradicionales son fáciles de entender y son lineales, lo que dificulta el sobreajuste, pero no pueden manejar la dependencia no lineal entre los predictores. Los modelos de aprendizaje automático, por otro lado, pueden manejar la dependencia no lineal con facilidad, y su complejidad y opacidad los hacen difíciles de replicar. Además, los modelos de aprendizaje automático brindan una probabilidad de éxito, lo que permite una asignación de capital más informada. Sin embargo, el sobreajuste es un problema con los modelos de aprendizaje automático y puede ser difícil evaluar la importancia estadística. La simulación de backtests es una solución imperfecta, y los matices del mercado no pueden capturarse completamente en una simulación.

  • 00:25:00 En esta sección, el Dr. Ernest Chan analiza la diferencia entre las estrategias cuantitativas tradicionales y las estrategias basadas en el aprendizaje automático. Explica que es mucho más difícil simular el mercado y crear barras de error precisas para las estrategias tradicionales, lo que dificulta evaluar su efectividad. Por otro lado, es fácil generar múltiples pruebas retrospectivas para los modelos de aprendizaje automático, simplemente cambiando la semilla aleatoria, y cada prueba retrospectiva potencialmente arroja resultados diferentes. Esta aleatoriedad permite una evaluación más fácil de la importancia estadística de las pruebas retroactivas, lo que la convierte en una gran ventaja del uso del aprendizaje automático en el comercio. Sin embargo, la ciencia de datos financieros es el paso más difícil y lento de la construcción de una estrategia, ya que suele haber numerosos problemas con los datos financieros, incluso de proveedores acreditados.

  • 00:30:00 En esta sección, el Dr. Ernest Chan describe algunos de los problemas asociados con el uso de datos de opinión. Señala que no siempre se puede confiar en los datos de opinión, ya que las empresas que procesan las noticias pueden retroceder y cambiar los parámetros para verse bien. Debido a la imposibilidad de saber si los datos se analizaron con sesgo, es necesario procesar los boletines sin procesar para generar nuevos sentimientos, lo que presenta un riesgo. Además, los datos presentan un desafío significativo en la automatización de respuestas. El paso de la ciencia de datos financieros es un desafío, ya que requiere inteligencia humana a través de la experiencia en el dominio, un problema paradójico en los problemas de aprendizaje automático financiero. El segundo paso es el aprendizaje automático, que la industria tecnológica ya ha resuelto. El paso final es la construcción y el backtesting de las estrategias comerciales, lo que requiere reunir la predicción en una estrategia coherente y evaluar la importancia estadística.

  • 00:35:00 En esta sección, el Dr. Ernest Chan analiza cómo convertir las predicciones en una cartera siguiendo una rutina estándar, que se puede encontrar en los libros de texto de finanzas. Sin embargo, esto requiere cierta experiencia en el dominio y no es completamente automático. También destaca las dificultades de la ciencia de datos financieros, como hacer que las características sean estacionarias y la importancia de usar el etiquetado metálico para predecir si una estrategia será rentable en lugar de predecir el mercado. El Dr. Chan recomienda leer su publicación de blog sobre el etiquetado de metales aplicado a las finanzas para obtener más información. También menciona que Random Forest es la opción de modelo más popular para el aprendizaje automático financiero porque captura bien la no linealidad y tiene la complejidad adecuada.

  • 00:40:00 En esta sección, el Dr. Ernest Chan habla sobre la importancia del aprendizaje automático para predecir las tendencias del mercado y evitar pérdidas. Comparte su experiencia personal sobre el uso de un modelo de aprendizaje automático para detectar la presencia de actividad terrorista en la economía mundial y advierte sobre los riesgos de no seguir sus consejos, como fue el caso con el anuncio de la vacuna de Pfizer. También enfatiza la importancia de la selección de funciones para explicar las pérdidas a los inversores y recomienda su propio libro sobre aprendizaje automático para principiantes. Además, el Dr. Chan destaca la importancia de la limpieza y la estacionariedad de los datos para hacer predicciones correctas, por lo que comparte un ejemplo de cómo una serie de tiempo no estacionaria puede afectar negativamente la capacidad del modelo para predecir con precisión.

  • 00:45:00 En esta sección, el Dr. Ernest Chan analiza la incorporación de datos fundamentales, particularmente datos categóricos, en modelos de aprendizaje automático. Si bien los modelos de regresión lineal no pueden manejar datos categóricos, los modelos de aprendizaje automático pueden manejar tanto datos categóricos como de valor real. Sin embargo, el Dr. Chan enfatiza que el aprendizaje automático no puede reemplazar por completo a los comerciantes humanos, ya que el aprendizaje automático financiero requiere una gran experiencia en el dominio para crear funciones e interpretar correctamente los datos. Además, advierte contra la adoración ciega del aprendizaje profundo y enfatiza que no es una solución única para todos sin suficientes datos relevantes. Finalmente, aconseja a los jóvenes profesionales que encuentren un nicho de mercado y eviten competir directamente con organizaciones bien financiadas.

  • 00:50:00 En esta sección, el Dr. Ernest Chan analiza la asignación de capital y cómo el aprendizaje automático puede proporcionar un rendimiento esperado más sofisticado como entrada al modelo de asignación de activos de capital. Cuestiona la contradicción de utilizar el desempeño pasado como el rendimiento esperado, lo que no garantiza el éxito futuro. El aprendizaje automático también puede proporcionar una comprensión matizada del mercado con probabilidades variables todos los días, a diferencia de las estadísticas clásicas que solo brindan una probabilidad de distribución estática. Cuando se trata de métodos de aprendizaje profundo como redes neuronales convolucionales recurrentes, el Dr. Chan cree que pueden no ser útiles para entradas de series no temporales y selección de características.

  • 00:55:00 En esta sección, el Dr. Ernest Chan analiza las limitaciones del aprendizaje profundo en la creación de diversas características transversales necesarias para hacer predicciones exitosas que requieren experiencia en el dominio. También brinda su opinión sobre el lugar del aprendizaje por refuerzo en los modelos financieros en una variedad de escalas de tiempo. Él cree que el aprendizaje por refuerzo podría funcionar a una frecuencia muy alta para el comercio de alta frecuencia, ya que puede reaccionar a las personas que colocan pedidos en el libro de pedidos, pero falla en escalas de tiempo más largas. Finalmente, recomienda su empresa PredictNow.ai como un gran recurso para el aprendizaje automático financiero sin código para aquellos interesados en la experiencia de alguien como él.
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
Financial Machine Learning - A Practitioner’s Perspective by Dr. Ernest Chan
  • 2020.11.12
  • www.youtube.com
QUANTT and QMIND came together to offer a unique experience for those interested in Financial Machine Learning (ML). Unifying these two clubs is Dr. Ernest C...
 

Comercio con aprendizaje de refuerzo profundo | doctor thomas starke


Comercio con aprendizaje de refuerzo profundo | doctor thomas starke

El Dr. Thomas Starke, un experto en el campo del aprendizaje de refuerzo profundo para el comercio, realizó una presentación perspicaz y participó en una sesión de preguntas y respuestas con la audiencia. El siguiente es un resumen extenso de su charla:

El Dr. Starke comenzó presentando el aprendizaje de refuerzo profundo para el comercio, destacando su capacidad para permitir que las máquinas resuelvan tareas sin supervisión directa. Usó la analogía de un aprendizaje automático para jugar un juego de computadora, donde aprende a tomar decisiones en función de lo que ve en la pantalla y logra el éxito o el fracaso en función de su cadena de decisiones.

Luego discutió el concepto de un proceso de decisión de Markov en el comercio, donde los estados están asociados con los parámetros del mercado y las acciones hacen la transición del proceso de un estado a otro. El objetivo es maximizar la recompensa esperada dada una política y un estado específicos. Los parámetros del mercado son cruciales para ayudar a la máquina a tomar decisiones informadas sobre las acciones a realizar.

El proceso de toma de decisiones en el comercio implica determinar si comprar, vender o mantener en función de varios indicadores que informan el estado del sistema. El Dr. Starke enfatizó la importancia de no depender únicamente de las etiquetas de ganancias o pérdidas inmediatas para cada estado, ya que puede conducir a predicciones incorrectas. En cambio, la máquina necesita saber cuándo permanecer en una operación, incluso si inicialmente va en contra, esperando que la operación vuelva a la línea promedio antes de salir.

Para abordar la dificultad de etiquetar cada paso en las ganancias y pérdidas de una operación, el Dr. Starke introdujo el etiquetado retroactivo. Este enfoque utiliza la ecuación de Bellman para asignar un valor distinto de cero a cada acción y estado, incluso si no genera una ganancia inmediata. Esto permite la posibilidad de reversión a la media y eventual ganancia.

El aprendizaje de refuerzo profundo puede ayudar a tomar decisiones comerciales basadas en resultados futuros. Los métodos tradicionales de aprendizaje por refuerzo crean tablas basadas en experiencias pasadas, pero en el comercio, la cantidad de estados e influencias es enorme. Para manejar esta complejidad, el aprendizaje por refuerzo profundo utiliza redes neuronales para aproximar estas tablas, haciéndolo factible sin crear una tabla enorme. El Dr. Starke discutió la importancia de encontrar la función de recompensa correcta y las entradas para definir el estado, lo que en última instancia permite una mejor toma de decisiones para el comercio.

Se destacó la importancia de los insumos en el comercio, enfatizando su necesidad de tener valor predictivo. El Dr. Starke enfatizó la importancia de probar el sistema en busca de un comportamiento conocido y seleccionar el tipo, el tamaño y la función de costo apropiados de la red neuronal en función de la función de recompensa elegida. Explicó cómo se emplea la gamificación en el comercio, donde los precios históricos y actuales, los datos de protección técnica y las fuentes de datos alternativas constituyen el estado, y la recompensa es la ganancia y la pérdida (P&L) del comercio. La máquina etiqueta retroactivamente las observaciones utilizando la ecuación de Bellman y actualiza continuamente las tablas aproximadas por redes neuronales para mejorar la toma de decisiones.

Con respecto al entrenamiento con aprendizaje reforzado, el Dr. Starke analizó diferentes formas de estructurar la serie de precios, incluida la entrada y salida aleatoria en varios puntos. También abordó el desafío de diseñar una función de recompensa y brindó ejemplos como el porcentaje puro de P&L, la ganancia por tick y la relación de Sharpe, así como métodos para evitar tiempos de recorrido prolongados o reducciones.

En términos de entradas para el comercio, el Dr. Starke mencionó numerosas opciones, que incluyen valores de apertura-alto-bajo-cierre y volumen, patrones de velas japonesas, indicadores técnicos como el índice de fuerza relativa, hora del día/semana/año, y precios de entrada y valores técnicos. indicadores para otros instrumentos. También se pueden considerar fuentes de datos alternativas, como el sentimiento o las imágenes de satélite. La clave es construir estas entradas en un estado complejo, similar a cómo se usan las funciones de entrada en los juegos de computadora para tomar decisiones.

El Dr. Starke explicó la fase de prueba a la que debe someterse el aprendiz de refuerzo antes de ser utilizado para el comercio. Describió varias pruebas, incluidas ondas sinusoidales limpias, curvas de tendencia, series aleatorias sin estructura, diferentes tipos de correlaciones de orden, ruido en curvas de prueba limpias y patrones recurrentes. Estas pruebas ayudan a determinar si la máquina genera ganancias constantemente e identifican cualquier falla en la codificación. El Dr. Starke también analizó los diferentes tipos de redes neuronales utilizadas, como la memoria estándar, convolucional y de largo plazo (LSTM). Expresó su preferencia por redes neuronales más simples que satisfagan sus necesidades sin requerir un esfuerzo computacional excesivo.

El Dr. Starke luego profundizó en los desafíos de usar el aprendizaje por refuerzo para el comercio. Reconoció la dificultad de distinguir entre señal y ruido, particularmente en series temporales financieras ruidosas. También destacó la dificultad del aprendizaje por refuerzo para adaptarse a los cambios en el comportamiento del mercado, lo que dificulta el aprendizaje de nuevos comportamientos. Además, mencionó que si bien el aprendizaje por refuerzo requiere una cantidad significativa de datos de capacitación, los datos del mercado suelen ser escasos. El sobreajuste es otra preocupación, ya que el aprendizaje por refuerzo tiende a actuar sobre los patrones básicos del mercado y puede sobreajustarse fácilmente. La creación de redes neuronales más complejas puede mitigar este problema, pero es una tarea que requiere mucho tiempo. En general, el Dr. Starke enfatizó que el aprendizaje por refuerzo no es una solución garantizada para obtener resultados rentables, y es crucial tener experiencia en el mercado y conocimiento específico del dominio para lograr el éxito en el comercio.

Durante la sesión de preguntas y respuestas, el Dr. Starke abordó varias preguntas relacionadas con el comercio con aprendizaje de refuerzo profundo. Aclaró que la ecuación de Bellman no introduce un sesgo de anticipación y discutió el uso potencial de indicadores técnicos como entradas después de un análisis cuidadoso. También exploró la posibilidad de utilizar imágenes satelitales para predecir los precios de las acciones y explicó que el comercio de refuerzo se puede realizar en pequeños marcos de tiempo dependiendo del tiempo de cálculo de la red neuronal. Advirtió que los algoritmos de comercio de refuerzo son sensibles a las anomalías del mercado y explicó por qué entrenar árboles de decisión aleatorios utilizando el aprendizaje de refuerzo no produce resultados significativos.

El Dr. Starke recomendó el uso de redes neuronales para el comercio en lugar de árboles de decisión o máquinas de vectores de soporte debido a su idoneidad para el problema. Hizo hincapié en la importancia de ajustar la función de pérdida en función de la función de recompensa utilizada. Si bien se han realizado algunos intentos para aplicar el aprendizaje por refuerzo al comercio de alta frecuencia, el Dr. Starke destacó el desafío de las redes neuronales lentas que carecen de capacidad de respuesta en los mercados en tiempo real. Aconsejó a las personas interesadas en seguir una carrera comercial en la industria financiera que adquirieran conocimiento del mercado, participaran en transacciones reales y aprendieran de la experiencia. Por último, discutió los desafíos de combinar las redes neuronales y el comercio de opciones, reconociendo la complejidad de la tarea.

En conclusión, el Dr. Thomas Starke proporcionó información valiosa sobre el comercio con aprendizaje de refuerzo profundo. Abarcó temas como el proceso de toma de decisiones en el comercio, el etiquetado retroactivo, la ecuación de Bellman, la importancia de las entradas, las fases de prueba y los desafíos asociados con el aprendizaje de refuerzo para el comercio. A través de su charla y sesión de preguntas y respuestas, el Dr. Starke ofreció orientación y consideraciones prácticas para aprovechar el aprendizaje de refuerzo profundo en los mercados financieros.

  • 00:00:00 El Dr. Thomas Stark presenta el aprendizaje de refuerzo profundo para el comercio, un tema que le ha interesado durante varios años. El aprendizaje por refuerzo (RL) es una técnica que permite que una máquina resuelva una tarea sin supervisión y aprende por sí misma qué hacer para producir resultados favorables. Explica cómo una máquina que quiere aprender a jugar un juego de computadora comenzaría en un escenario de juego y avanzaría de un paso al siguiente mientras responde a lo que ve en la pantalla. Finalmente, el juego termina y la máquina logra el éxito o el fracaso según la cadena de decisiones que tomó.

  • 00:05:00 El Dr. Thomas Starke analiza el comercio con aprendizaje de refuerzo profundo y explica el concepto de un proceso de decisión de Markov. En este proceso, un estado se asocia con un parámetro de mercado particular y una acción hace que el proceso pase de un estado al siguiente. Dependiendo de la transición, el agente recibe una recompensa positiva o negativa. El objetivo es maximizar la recompensa esperada dada una determinada política y estado. En el comercio, los parámetros del mercado se utilizan para identificar en qué estado se encuentra el agente y ayudarlo a tomar decisiones sobre qué acción tomar.

  • 00:10:00 El Dr. Thomas Starke analiza el proceso de toma de decisiones involucrado en el comercio, que implica decidir si comprar, vender o mantener en función de varios indicadores que informan el estado del sistema. El objetivo es recibir la mejor recompensa posible, que es la ganancia o pérdida de la operación. Sin embargo, el enfoque tradicional de aprendizaje automático de dar a un estado una etiqueta particular, como ganancias o pérdidas inmediatas, puede conducir a etiquetas incorrectas si el comercio va en contra de nosotros en el futuro inmediato. Por lo tanto, la máquina debe entender cuándo permanecer en la operación, incluso si inicialmente va en nuestra contra, y tener la convicción de esperar hasta que la operación vuelva a la línea promedio para salir de la operación.

  • 00:15:00 El Dr. Thomas Starke analiza el etiquetado retroactivo y cómo se usa en el aprendizaje por refuerzo para abordar la dificultad de etiquetar cada paso en las ganancias y pérdidas de una operación. Él explica que el aprendizaje automático tradicional etiqueta cada paso en el comercio, lo que dificulta predecir si el comercio puede volverse rentable en el futuro si experimenta una pérdida. El etiquetado retroactivo utiliza la ecuación de Bellman para asignar un valor distinto de cero a cada acción y estado, incluso si no produce un beneficio inmediato, lo que permite una reversión al beneficio medio y eventual.

  • 00:20:00 El Dr. Thomas Starke explica cómo usar el aprendizaje por refuerzo para resolver el problema de la gratificación retrasada en el comercio. La ecuación de Bellman se usa para calcular la recompensa de una acción, donde "r" representa la recompensa inmediata y "q" representa la recompensa acumulativa. Gamma es un factor de descuento que asigna peso a los resultados futuros en comparación con los resultados anteriores. Al utilizar el aprendizaje por refuerzo, las decisiones comerciales no se basan únicamente en las recompensas inmediatas, sino también en mantener posiciones para obtener mayores recompensas en el futuro. Esto permite una toma de decisiones más informada en comparación con la toma de decisiones codiciosa.

  • 00:25:00 El Dr. Thomas Starke analiza cómo el aprendizaje de refuerzo profundo puede ayudar a tomar decisiones para el comercio en función de los resultados futuros. El aprendizaje por refuerzo tradicional implica construir tablas basadas en experiencias pasadas, pero en el trading esto se vuelve complejo debido a la gran cantidad de estados e influencias. Por lo tanto, la solución es utilizar el aprendizaje de refuerzo profundo y las redes neuronales para aproximar estas tablas sin crear una tabla enorme. Explica la implementación del uso de la gamificación del comercio y la búsqueda de la función de recompensa y las entradas correctas para definir el estado. En general, el uso del aprendizaje de refuerzo profundo puede ayudar en la toma de decisiones para el comercio.

  • 00:30:00 En esta sección, el Dr. Starke analiza la importancia de las entradas en el comercio y cómo deben tener algún tipo de valor predictivo, o de lo contrario el sistema no podrá tomar buenas decisiones comerciales. Él enfatiza la necesidad de probar el sistema en busca de un comportamiento conocido y elegir el tipo, tamaño y función de costo apropiados de la red neuronal, dependiendo de la función de recompensa elegida. Luego explica cómo funciona la gamificación en el comercio, donde el estado son los precios históricos y actuales, los datos de la guardia técnica y las fuentes de datos alternativas, y la recompensa es el P&L del comercio. El alumno de refuerzo utilizará la ecuación de Bellman para etiquetar las observaciones de forma retroactiva y, mediante la actualización constante de tablas aproximadas por redes neuronales, la máquina aprenderá a tomar mejores y mejores decisiones comerciales.

  • 00:35:00 En esta sección, el Dr. Thomas Starke analiza cómo estructurar la serie de precios para el entrenamiento mediante el aprendizaje por refuerzo. Él explica que en lugar de recorrer la serie de precios secuencialmente, puede ingresar y salir aleatoriamente en diferentes puntos, y depende del usuario decidir qué método elegir. También analiza la dificultad de diseñar una función de recompensa y proporciona varios ejemplos y métodos para estructurar una función de recompensa que se puede usar para el entrenamiento, como el uso de P&L porcentuales puros, ganancias por tick, la relación de Sharpe y diferentes tipos de castigos para evitar largos tiempos de acarreo o reducciones.

  • 00:40:00 Según el Dr. Thomas Starke, tenemos muchas opciones, incluidos valores de volumen y cierre alto bajo abierto, patrones de velas japonesas, indicadores técnicos como el índice de fuerza relativa, hora del día/semana/año, diferentes granularidades de tiempo, ingreso precios e indicadores técnicos de otros instrumentos, y datos alternativos como sentimiento o imágenes de satélite. Estas entradas luego se construyen en un estado complejo, similar a cómo un juego de computadora usa características de entrada para tomar decisiones. En última instancia, la clave es encontrar la función de recompensa adecuada que funcione para su estilo de negociación y optimizar su sistema en consecuencia.

  • 00:45:00 El Dr. Thomas Starke explica la fase de prueba a la que debe someterse su aprendiz de refuerzo antes de ser utilizado para operar en los mercados financieros. Aplica una serie de pruebas que incluyen ondas sinusoidales limpias, curvas de tendencia, series aleatorias sin estructura, diferentes tipos de correlaciones de orden, ruido en curvas de prueba limpias y patrones recurrentes para determinar si la máquina obtiene ganancias consistentes y encontrar fallas en la codificación. . También analiza los diferentes tipos de redes neuronales que utiliza, incluida la memoria estándar, convolucional y de largo plazo (LSTM), y su preferencia por las redes neuronales simples, ya que son suficientes para sus necesidades y no requieren un esfuerzo computacional excesivo.

  • 00:50:00 En esta sección, el Dr. Thomas Starke analiza los desafíos del comercio con aprendizaje por refuerzo, incluidas las dificultades para distinguir entre señal y ruido y el problema de los mínimos locales. Él muestra que el aprendizaje por refuerzo lucha con series de tiempo financieras ruidosas y sistemas financieros dinámicos con reglas cambiantes y regímenes de mercado. Sin embargo, también muestra que suavizar la curva de precios con un promedio móvil simple puede mejorar significativamente el rendimiento de la máquina de aprendizaje por refuerzo, proporcionando información sobre cómo construir un sistema de aprendizaje automático exitoso que pueda tomar decisiones comerciales rentables.

  • 00:55:00 En esta sección, el Dr. Thomas Starke analiza los desafíos de usar el aprendizaje por refuerzo para operar. En primer lugar, el aprendizaje por refuerzo lucha por adaptarse a los cambios en el comportamiento del mercado, lo que dificulta el aprendizaje de nuevos comportamientos. Además, se necesitan muchos datos de capacitación, pero los datos del mercado suelen ser escasos. Si bien el aprendizaje por refuerzo es eficiente, puede sobreajustarse fácilmente y solo actúa realmente sobre los patrones básicos del mercado. La construcción de redes neuronales más complejas puede superar esto, pero es una tarea que requiere mucho tiempo. En última instancia, el aprendizaje por refuerzo no es una bala de plata para producir resultados rentables, y es importante tener una buena experiencia en el mercado y conocimientos específicos del dominio para lograr resultados comerciales exitosos. El Dr. Starke ofrece una conferencia Quant NC y alienta a cualquier persona interesada en codificar estos sistemas a contactarlo en LinkedIn con preguntas bien formuladas.

  • 01:00:00 El Dr. Thomas Starke responde varias preguntas relacionadas con el comercio con aprendizaje de refuerzo profundo. Explica que la ecuación de Bellman no introduce un sesgo de anticipación y, a veces, los indicadores técnicos se pueden usar como entradas después de un análisis cuidadoso. Las imágenes satelitales podrían ser útiles para predecir los precios de las acciones, y el comercio de refuerzo se puede realizar en pequeños marcos de tiempo según el tiempo de cálculo de la red neuronal. También analiza cuán sensibles son los algoritmos comerciales de refuerzo a las anomalías del mercado y explica por qué no tiene sentido entrenar árboles de decisión aleatorios utilizando el aprendizaje de refuerzo.

  • 01:05:00 En esta sección, el Dr. Thomas Starke recomienda el uso de redes neuronales para el comercio en lugar de árboles de decisión o máquinas de vectores de soporte debido a su idoneidad para el problema. Explica que ajustar la función de pérdida en función de la función de recompensa utilizada es esencial. Menciona que las personas han tratado de utilizar el aprendizaje por refuerzo para el comercio de alta frecuencia, pero terminaron con redes neuronales lentas que carecían de capacidad de respuesta en los mercados en tiempo real. Sugiere que obtener conocimiento del mercado ayudará significativamente a seguir una carrera comercial en la industria financiera, realizar operaciones reales y aprender mucho en el proceso. Finalmente, analiza si se pueden usar redes neuronales para obtener buenos resultados con el comercio de opciones y explica los desafíos de combinar las redes neuronales y el comercio de opciones.

  • 01:10:00 En esta sección, el Dr. Thomas Starke explica cómo se pueden utilizar los datos de opciones como entrada para operar con el instrumento subyacente, en lugar de depender únicamente de indicadores técnicos. También responde preguntas sobre el uso de redes neuronales para decidir la cantidad de lotes para comprar o vender y cómo incorporar el margen, la comisión y el deslizamiento en el algoritmo mediante la construcción de un modelo para el deslizamiento y la incorporación de esos factores en la función de recompensa. Recomienda precaución al usar redes neuronales para decidir sobre los volúmenes comerciales y recomienda usar valores de salida para dimensionar los pesos de la cartera en consecuencia. Concluye agradeciendo a la audiencia por sus preguntas y por asistir a su charla.
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
Machine Learning Trading | Trading with Deep Reinforcement Learning | Dr Thomas Starke
  • 2020.09.23
  • www.youtube.com
Dr. Thomas Starke Speaks on Machine Learning Trading with Deep Reinforcement Learning (DRL). In this captivating video, join Dr. Thomas Starke as he unravels...
 

Harrison Waldon (UT Austin): "Las ecuaciones de aprendizaje algorítmico"


Harrison Waldon (UT Austin): "Las ecuaciones de aprendizaje algorítmico"

Harrison Waldon, investigador de UT Austin, presentó su trabajo sobre la colusión algorítmica en los mercados financieros, centrándose en la interacción y la colusión potencial de los algoritmos de aprendizaje por refuerzo (RL). Abordó las preocupaciones de los reguladores con respecto al comercio algorítmico autónomo y su potencial para inflar los precios a través de la colusión sin comunicación explícita.

La investigación de Waldon tuvo como objetivo comprender el comportamiento de los algoritmos de RL en entornos financieros y determinar si pueden aprender a coludirse. Utilizó ecuaciones de aprendizaje algorítmico (ALE) para derivar un sistema de ecuaciones diferenciales ordinarias (EDO) que aproximan la evolución de los algoritmos en condiciones específicas. Estos ALE pudieron validar el comportamiento colusorio en los algoritmos de Q-learning y proporcionaron una buena aproximación de la evolución del algoritmo, demostrando una gran cuenca de atracción para los resultados colusorios.

Sin embargo, existen desafíos para calcular la distribución estacionaria y distinguir la verdadera colusión del comportamiento racional de autoconservación. Surgen dificultades numéricas para determinar la distribución estacionaria, y sigue siendo un desafío diferenciar la colusión genuina del comportamiento impulsado por el interés propio.

Waldon destacó las limitaciones del equilibrio del juego estático cuando se aplica a las interacciones dinámicas, enfatizando la necesidad de un enfoque integral para regular el comportamiento. El comportamiento colusorio facilitado por algoritmos sin comunicación directa entre las partes requiere una cuidadosa consideración. La charla concluyó con Waldon expresando su gratitud a los asistentes, marcando el final de la serie del semestre de primavera.

  • 00:00:00 En esta sección, Harrison Walden de UT Austin analiza su trabajo reciente sobre colusión algorítmica en la industria financiera. Señala que la mayoría de las operaciones en los mercados electrónicos se ejecutan mediante algoritmos, muchos de los cuales utilizan técnicas de aprendizaje automático como el aprendizaje por refuerzo (RL) para aprender estrategias comerciales. Si bien RL ha tenido un éxito práctico en la cobertura profunda y la ejecución óptima, los reguladores han expresado su preocupación por las empresas que confían en el comercio algorítmico completamente autónomo, ya que puede conducir a la colusión de tareas y precios inflados en el mercado sin una comunicación explícita. El trabajo de Walden tiene como objetivo proporcionar herramientas para estudiar la colusión algorítmica y su impacto potencial en la industria financiera.

  • 00:05:00 En esta sección, Harrison Waldon analiza las limitaciones de los estudios existentes sobre el comportamiento de los algoritmos de aprendizaje por refuerzo en entornos financieros. Si bien alguna evidencia experimental muestra que ciertos algoritmos de aprendizaje por refuerzo pueden aprender estrategias colusorias complejas en ciertos escenarios, dichos experimentos carecen de rigor teórico. Además, la falta de explicabilidad de los algoritmos de RL es una preocupación para organizaciones como AFM, particularmente en entornos no estacionarios y de múltiples agentes, como los mercados financieros. Las preguntas principales que impulsan el trabajo de Waldon son: ¿Cómo podemos entender el comportamiento de los algoritmos de aprendizaje por refuerzo que interactúan en entornos financieros? ¿Pueden estos algoritmos aprender a coludirse?

  • 00:10:00 En esta sección, Harrison Waldon explica que en el aprendizaje por refuerzo (RL), la función F, o la regla de aprendizaje, toma valores de parámetros antiguos, el estado actual, la acción actual y posiblemente el estado posterior para incorporar la información en un nuevo conjunto de parámetros. El objetivo es encontrar un conjunto de parámetros que se aproximen a la política óptima. Un algoritmo popular en RL es el Q-learning tabular asíncrono, que asocia un valor de parámetro a cada par estado-acción y los actualiza de forma asíncrona. Q-learning funciona bien en configuraciones de un solo agente, pero se vuelve más desafiante en configuraciones de múltiples agentes y no estacionarias, comunes en los mercados. El espacio de estado en finanzas se define como el vector de precios publicados por otros agentes, donde el espacio de acción puede incluir comprar, vender o mantener.

  • 00:15:00 En esta sección, aprendemos que un hallazgo interesante en el trabajo del equipo es que los algoritmos pueden aprender el comercio de manchas solares si comienzan a condicionarse a factores de mercado irrelevantes. El orador explica cómo se comporta el aprendizaje Q en interacción con otros estudiantes Q y define el análogo multiagente de un proceso de decisión de Markov como un juego estocástico. Discuten cómo los agentes están aprendiendo y adaptando sus políticas a lo largo del tiempo, haciendo que la verdadera dinámica del proceso estatal no sea estacionaria, aunque la función de transición pueda ser fija. El principal ejemplo utilizado en la charla es el dilema del prisionero, interpretado como un mercado estilizado con dos proveedores de liquidez en competencia.

  • 00:20:00 comprensión del comportamiento de los algoritmos aprendiendo a jugar un juego repetido del dilema del prisionero con otros jugadores equipados con algoritmos. Para lograr esto, al proceso de estados se le debe dar una noción de estado y el sistema al que llegamos se llama ecuaciones algorítmicas de aprendizaje. Para derivar este sistema, utilizan el método ode de aproximación estocástica para aproximar la evolución de los parámetros, lo que permite un análisis directo de las políticas. Si bien existen limitaciones en este modelo, las herramientas presentadas son generales y pueden abordar estas limitaciones.

  • 00:25:00 En esta sección, Harrison Waldon analiza las ecuaciones de aprendizaje algorítmico, que aproximan la evolución de los parámetros utilizando la aproximación estocástica clásica y una ODE. Al condicionar la regla de aprendizaje con respecto a la distribución estacionaria e inducir parámetros fijos, derivan un sistema de EDO que imita el algoritmo de aprendizaje. Estas ecuaciones de aprendizaje algorítmico pueden aproximar la evolución del algoritmo dadas ciertas condiciones, como tasas de aprendizaje no degeneradas y compacidad de los parámetros. La distribución estacionaria y las políticas son continuas de Lipschitz, lo que también resulta crucial. La aproximación estocástica utilizada es necesaria debido al proceso no estacionario con dinámica cambiante.

  • 00:30:00 En esta sección, Harrison Waldon analiza las ecuaciones de aprendizaje algorítmico y sus propiedades. El ejemplo de Q-learning discutido en el video satisface todas las propiedades de estas ecuaciones, incluido el mantenimiento de parámetros en un conjunto compacto, cadenas de Markov ergódicas, continuidad de Lipschitz en políticas y reglas de aprendizaje. Waldon muestra que bajo una escala de tiempo adecuada, el algoritmo estará cerca de las soluciones de la ODE para cualquier horizonte de tiempo finito con alta probabilidad y convergerá a soluciones localmente asintóticamente estables casi con certeza si la tasa de aprendizaje decae lo suficientemente rápido. Waldon concluye validando estas ecuaciones aplicándolas al dilema del prisionero repetido usando Q-learning con selección de acción softmax.

  • 00:35:00 En esta sección, se discuten las condiciones necesarias para que la ecuación de aprendizaje algorítmico se aproxime a la evolución de los algoritmos. La condición del proceso de estado para la ergodicidad se satisface inmediatamente para este escenario ya que solo hay un estado. Las trayectorias del algoritmo de aprendizaje se simulan con tasas de aprendizaje grandes y pequeñas, lo que muestra que la aproximación mediante la ecuación de aprendizaje algorítmico es buena con tasas de aprendizaje pequeñas. Los ALE también son útiles para analizar la probabilidad de obtener un resultado colusorio, con una gran cuenca de atracción que conduce a tal resultado. En la siguiente parte del video, cada agente tiene la capacidad de condicionar sus diferenciales a los diferenciales de su oponente del período anterior.

  • 00:40:00 En esta sección del video, Harrison Waldon explica la probabilidad de realizar una determinada acción y la fuente del ruido en las simulaciones que están analizando. Discute el proceso de estado ergótico, la distribución estacionaria de políticas y cómo interpretar los componentes de las políticas de cada agente en términos de castigo para examinar la frecuencia con la que un conjunto de políticas inducirá el resultado colusorio. También proporciona gráficos de las ecuaciones algorítmicas de aprendizaje para el aprendizaje Q dependiente del estado para un rango de condiciones iniciales hasta que la trayectoria converge numéricamente.

  • 00:45:00 En esta sección del video, Harrison Waldon analiza los resultados del uso de Q-learning con las ecuaciones de aprendizaje algorítmico para aprender el comportamiento de colusión en juegos estocásticos. Los agentes pudieron aprender a jugar spreads colusorios casi el 100 % de las veces, incluso si no comenzaron con altas probabilidades de colusión. Los resultados también mostraron una gran cuenca de atracción para el resultado colusorio, pero también comportamientos inesperados como alternar entre resultados mutuamente colusorios y mutuamente competitivos. La metodología utilizada en este estudio proporcionó condiciones suficientes mínimamente restrictivas que permitieron aproximar el comportamiento de una amplia clase de algoritmos de aprendizaje por refuerzo dependientes del estado. Sin embargo, hubo algunas limitaciones debido a las dificultades numéricas para calcular la distribución estacionaria. En general, Q-learning tuvo éxito en el aprendizaje del comportamiento colusorio en estos juegos estocásticos.

  • 00:50:00 En esta sección, Harrison Waldon explica cómo garantizar que las ecuaciones de aprendizaje algorítmico se aproximen al comportamiento asintótico del algoritmo mostrando la existencia de una función de Lyapunov, lo cual es difícil debido a la necesidad de lidiar con la distribución estacionaria. Para abordar este problema, Waldon presenta un nuevo algoritmo que es una generalización del juego ficticio clásico llamado Juego ficticio suave dependiente del estado. Este algoritmo asume que todos los agentes en un sistema juegan de acuerdo con políticas estacionarias, y las creencias de esas estrategias se forman a través de la frecuencia empírica del juego. El algoritmo agrega algo de aleatoriedad al sistema y realiza acciones de acuerdo con una distribución soft-max para sortear los problemas de las reglas de aprendizaje deterministas.

  • 00:55:00 En esta sección, Harrison Waldon explica que las ecuaciones de aprendizaje algorítmico se pueden usar para analizar un sistema de tiempo continuo y garantizar que el algoritmo de juego ficticio uniforme convergerá en puntos de descanso del sistema, algunos de los cuales pueden ser estrategias colusorias. . A medida que crece el factor de descuento, aumenta la probabilidad de conocer resultados colusorios. Waldon también analiza la necesidad de una dinámica de mercado más realista y la posibilidad de aplicar ecuaciones de aprendizaje algorítmico a algoritmos de aprendizaje de refuerzo profundo para estudiar equilibrios y precios. Finalmente, reconoce la dificultad de la detección de la colusión y el desafío de distinguir entre la verdadera colusión y el comportamiento racional de autoconservación.

  • 01:00:00 En esta sección, Harrison Waldon analiza cómo el equilibrio de un juego estático es un estrecho reflejo de la realidad de la interacción dinámica entre las personas. Él enfatiza la necesidad de un enfoque holístico al considerar qué comportamiento de equilibrio regular, especialmente en términos de comportamiento colusorio que puede verse como racional y llegar a través de algoritmos sin comunicación directa entre las partes. La sesión termina con Waldon agradeciendo a los asistentes y concluyendo la serie del semestre de primavera.
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
Harrison Waldon (UT Austin): "The Algorithmic Learning Equations"
  • 2023.04.26
  • www.youtube.com
Abstract: Recently there has been concern among regulators and legal theorists about the possibility that pricing algorithms can learn to collude with one a...
 

Irene Aldridge (AbleBlox y AbleMarkets): "Crypto Ecosystem y AMM Design"



Irene Aldridge (AbleBlox y AbleMarkets): "Crypto Ecosystem y AMM Design"

Irene Aldridge, fundadora y directora general de AbleMarkets, profundiza en varios aspectos de la tecnología blockchain, la creación de mercados automatizados (AMM) y la convergencia de los mercados tradicionales con el mundo de los AMM. Ella enfatiza la importancia de estos temas en las finanzas y explora los desafíos potenciales y las soluciones asociadas con ellos.

Aldridge comienza brindando una descripción general de su experiencia en la industria financiera y su experiencia en microestructura, que se enfoca en comprender las operaciones del mercado. Ella destaca la creciente adopción de modelos de creación de mercado automatizados, inicialmente prominentes en el mercado criptográfico pero que ahora se extienden a los mercados tradicionales. Ella describe la estructura de su presentación, que cubre conceptos introductorios de blockchain, la aplicación de blockchain en finanzas y programación, y estudios de casos del mundo real de creación de mercado y su impacto en los mercados tradicionales.

Al explorar la tecnología blockchain, Aldridge la describe como una base de datos avanzada en la que cada fila contiene un resumen criptográfico de la fila anterior, lo que garantiza la integridad de los datos. Ella explica el proceso de minería involucrado en blockchain, donde el contenido propuesto se valida y se agrega a la cadena, lo que lleva a una mayor transparencia y descentralización en el papeleo y los sistemas de pago.

Aldridge analiza el cambio hacia la descentralización en el ecosistema criptográfico, destacando la compensación entre la privacidad y la solidez de tener varias copias de la base de datos en los servidores. Ella explica el proceso de blockchain, desde la definición de bloques y la creación de firmas criptográficas hasta las principales innovaciones de prueba de trabajo y minería, que garantizan la seguridad contra los intentos de piratería.

Sin embargo, Aldridge reconoce los desafíos asociados con el sistema de minería de prueba de trabajo, incluido el costo creciente de la minería, una cantidad decreciente de mineros y vulnerabilidades potenciales. Ella destaca soluciones alternativas, como la agregación de bloques de Ethereum y la eliminación de acertijos para la minería de Coinbase.

El orador pasa a explorar la participación en el ecosistema criptográfico, donde las partes interesadas comprometen sus fondos para respaldar las operaciones de la red. Ella reconoce el problema potencial de los oligarcas criptográficos que manipulan el mercado y explica cómo se han implementado la validación fuera de la cadena y la creación de mercado automatizada para contrarrestar este problema. Aldridge enfatiza la importancia de comprender estos conceptos para comprender la importancia de la creación automatizada de mercados para prevenir la manipulación en el mercado de criptomonedas.

Aldridge profundiza en los principios detrás de los creadores de mercado automatizados (AMM), enfatizando su impacto revolucionario en el comercio de criptomonedas. Ella explica cómo las curvas AMM, formadas por invariantes relacionados con la liquidez, determinan los precios en función del inventario restante en el grupo de liquidez. Ella destaca los beneficios de los AMM, incluida la liquidez las 24 horas, los 7 días de la semana, la estimación de deslizamiento formulada y la determinación del valor razonable a través de curvas convexas. Sin embargo, también menciona que los AMM pueden enfrentar pérdidas en condiciones volátiles, lo que lleva a la introducción de tarifas de transacción.

Al comparar los AMM con los mercados tradicionales, Aldridge analiza las ventajas de la creación de mercado automatizada, como la liquidez continua, el deslizamiento predecible y la determinación del valor justo. Ella explica el método de creación de mercado de productos constantes empleado por UniSwap, que ilustra cómo los corredores de ejecución pueden seleccionar plataformas para la liquidez y la ejecución en función de los datos parametrizados.

El orador analiza el cálculo de los cambios de volumen y la distinción entre fondos de liquidez públicos y privados. Ella presenta ejemplos empíricos usando Bitcoin y Ethereum de diferentes intercambios, señalando diferencias en sus curvas y sugiriendo posibles preocupaciones con ciertas plataformas.

Aldridge enfatiza la importancia de diseñar curvas AMM utilizando formas convexas para garantizar la estabilidad del mercado. Ella explica las funciones de los proveedores de liquidez y los comerciantes en el sistema y cómo se benefician de las tarifas de transacción. También plantea la posibilidad de que los sistemas AMM se utilicen en mercados tradicionales, lo que lleva a considerar su aplicación a activos como las acciones de IBM.

Aldridge explora la convergencia de los mercados tradicionales con la creación de mercados automatizada y señala que los creadores de mercados tradicionales ya están implementando sistemas similares. Ella destaca los cambios esperados en las interacciones del mercado, las estrategias comerciales, los métodos de ejecución y la transparencia. También se analiza la influencia de los creadores de mercado automatizados en la microestructura de los mercados.

Al abordar la viabilidad de implementar liquidez automatizada en entornos comerciales 24/7 como el mercado criptográfico, Aldridge explica que la creación de mercado automatizada puede eliminar los riesgos asociados con los métodos tradicionales de creación de mercado y que la tecnología está fácilmente disponible. Sin embargo, advierte que no todos los intercambios de cifrado utilizan la creación de mercado automatizada, y enfatiza la necesidad de investigación para abordar la gestión de riesgos y las externalidades. Aldridge señala que la tecnología de creación de mercado automatizada surgió casi al mismo tiempo que las criptomonedas como Bitcoin en 2002.

Cuando se le preguntó acerca de la posible ventaja injusta de los comerciantes automatizados de creación de mercado que tienen acceso a información privada, Aldridge reconoce que plantea un problema. Sin embargo, sugiere que comparar y cuantificar la curva de creación de mercado automatizada en diferentes plataformas puede ayudar a mitigar este problema. Ella señala que los mineros tienen incentivos para continuar con su trabajo porque son ellos los que se benefician al acceder y validar los bloques de pedidos. Sin embargo, a menos que exista un incentivo privado, es cada vez más difícil generar ganancias en este espacio, lo que lleva a la formación de oligopolios. Aldridge propone que el seguro podría servir como un incentivo natural para que los mineros trabajen casi gratis. Sin embargo, las compañías de seguros perciben la cadena de bloques como una gran amenaza para su industria, lo que genera resistencia a tales diseños de sistemas. También aborda la posibilidad de esquemas de fraude, destacando la posible manipulación en la curva de IBM.

En el contexto de los libros de órdenes limitadas centralizados, Aldridge explica cómo los participantes del mercado están utilizando modelos de creación de mercado automatizados, como los AMM, que brindan liquidez de manera rentable y automatizada, lo que puede generar ganancias. Sin embargo, distinguir entre los comerciantes que usan AMM y los que colocan órdenes limitadas manualmente sigue siendo un desafío. Aldridge sugiere que la identificación de usuarios maliciosos a través del análisis de datos microestructurales podría ofrecer una posible solución. Ella cree que si los AMM continúan dominando el mercado, surgirá un modelo más eficiente y optimizado.

En resumen, la discusión de Irene Aldridge cubre varios aspectos de la tecnología blockchain, la creación automatizada de mercados y la convergencia de los mercados tradicionales con el mundo AMM. Explora los conceptos básicos de blockchain, analiza los desafíos y las posibles soluciones relacionadas con los sistemas de minería de prueba de trabajo y destaca los beneficios de los AMM sobre los mercados tradicionales. Aldridge también aborda las preocupaciones con respecto a la viabilidad de implementar la liquidez automatizada, el problema de que los comerciantes automatizados de creación de mercado tengan acceso a información privada y el papel potencial de los seguros como un incentivo para los mineros. A través de sus conocimientos, brinda perspectivas valiosas sobre el panorama actual y las posibilidades futuras en el mundo de las finanzas y la creación automatizada de mercados.

  • 00:00:00 En esta sección, Irene Aldridge habla sobre su experiencia en la industria financiera y su interés en la microestructura, que se centra en cómo funcionan los mercados. Luego presenta el tema de la creación de mercado automatizada y cómo se originó en el criptomercado, pero ahora se está implementando en los mercados tradicionales. Ella proporciona un esquema para la presentación, que incluye una introducción de blockchain 101, aplicaciones de blockchain en finanzas, programación y estudios de casos de creación de mercado en la práctica y sus efectos indirectos en los mercados tradicionales. Aldridge tiene experiencia en ingeniería eléctrica y ha trabajado en varias áreas de la industria financiera, incluido el comercio, la gestión de riesgos y la investigación.

  • 00:05:00 En esta sección, Irene Aldridge explica los conceptos básicos de la tecnología blockchain. Ella lo describe como una base de datos elegante donde cada fila lleva un resumen criptográfico de la fila anterior, lo que dificulta computacionalmente cambiar los datos anteriores. Además, analiza el proceso de extracción de blockchain y cómo implica examinar el contenido propuesto de un bloque y memorizarlo. Aldridge cree que blockchain puede ayudar a mover el papeleo y los pagos a blockchain, lo que permite una mayor transparencia y descentralización.

  • 00:10:00 En esta sección, Irene Aldridge analiza el cambio hacia un modelo descentralizado en el ecosistema criptográfico, donde las transacciones son públicas y se almacenan en múltiples servidores en lugar de estar centralizadas en un servidor Oracle. Si bien esto significa que se sacrifica la privacidad, la mayor solidez de tener varias copias de la base de datos en los servidores se considera una compensación justa. Aldridge explica que el proceso de la cadena de bloques es relativamente sencillo, comienza con la definición de un bloque y la creación de una firma criptográfica o hash, que luego se codifica en el siguiente bloque. Luego se analizan las principales innovaciones de la prueba de trabajo y los procedimientos de minería, con el objetivo de garantizar la seguridad contra los intentos de piratería al hacer que la complejidad computacional de volver a calcular la cadena sea demasiado grande.

  • 00:15:00 En esta sección, Irene Aldridge analiza los problemas que afectan al sistema de minería de prueba de trabajo en criptomonedas. Ella explica que el costo de la minería se está volviendo demasiado caro para la mayoría de las personas, lo que lleva a un equilibrio en el que solo un grupo específico de personas puede pagar los costos y el resto no puede minar. Además, la cantidad de mineros está disminuyendo con el tiempo, lo que hace que el sistema sea vulnerable a posibles ataques. El punto fuerte del modelo descentralizado es que el motor principal selecciona automáticamente la cadena más larga, lo que evita que los colusionadores se pongan al día e introduzcan bloques pirateados en el sistema. Sin embargo, existen preocupaciones crecientes sobre el sistema de prueba de trabajo, incluidos los temas de interés entre los mineros que comercian y extraen, y el tiempo que lleva minar bloques. Ahora se están desarrollando nuevas soluciones, como la agregación de bloques de Ethereum cada 12 segundos y la decisión de Coinbase de dejar de requerir que las personas resuelvan acertijos para minar.

  • 00:20:00 En esta sección, el orador analiza el proceso de participación en el ecosistema criptográfico, que implica poner dinero en el sistema para minar. Las partes interesadas pueden bloquear su participación o garantía durante un período específico y, si hay actividad fraudulenta, la pagan con su participación. Sin embargo, esto crea un oligopolio de oligarcas criptográficos que manipulan el mercado. Para combatir esto, se han utilizado la validación fuera de la cadena y la creación de mercado automatizada. Este último se ha vuelto más popular en el ecosistema criptográfico y tiene varios productos de código abierto a los que cualquiera puede acceder, lo que facilita su comprensión. El orador destaca que comprender la información de fondo, como el replanteo y la validación fuera de la cadena, es esencial para comprender la importancia de la creación de mercado automatizada y cómo funciona para evitar la manipulación en el criptomercado.

  • 00:25:00 en esta sección, Irene Aldridge analiza los principios detrás de los diferentes creadores de mercado automatizados (AMM), que han revolucionado el mundo del comercio de criptomonedas. Ella explica que las curvas AMM, que varían en curvatura y compensación, están formadas por un invariante relacionado con la liquidez, y que el precio es función del inventario restante en el fondo de liquidez. Uno de los beneficios de los AMM es que pueden operar las 24 horas del día, los 7 días de la semana sin un margen, ya que no hay márgenes de oferta y demanda, y pueden ajustarse automáticamente a las condiciones cambiantes del mercado. Sin embargo, los AMM pueden perder dinero en condiciones volátiles, por lo que imponen tarifas de transacción, que los mercados tradicionales no tienen.

  • 00:30:00 En esta sección, Irene Aldridge analiza la creación de mercado automatizada (AMM) y sus beneficios sobre los mercados tradicionales, como la liquidez continua las 24 horas, los 7 días de la semana, el deslizamiento formulado que se puede estimar con anticipación y el valor razonable mediante el uso de una curva convexa. Aldridge explica el método de creación de mercado de producto constante utilizado por el popular sistema UniSwap, que sigue una curva convexa entre la cantidad uno y la cantidad dos. Al recopilar datos de diferentes intercambios y parametrizarlos en función de este método de producto constante, Aldridge destaca cómo los corredores de ejecución pueden determinar qué plataformas elegir para la liquidez y la ejecución.

  • 00:35:00 En esta sección, Irene Aldridge analiza el cálculo de los cambios respectivos en el volumen y la moneda y simula una simulación muy simple utilizando la regla de la niña de la microestructura para determinar si el volumen es una compra o una venta. También explica los dos tipos de fondos de liquidez, públicos y privados, y el arbitraje que ocurre entre ellos, enfatizando que no debería haber diferencia entre ellos en plataformas suficientemente líquidas. Luego, Aldridge presenta ejemplos empíricos que usan Bitcoin y Ethereum de varios intercambios, como Bitfinex y Bitstamp, y destaca sus curvas, señalando que FTX no se parece en nada a lo que esperaríamos desde una perspectiva de creación de mercado automatizada y sugiere que podría haber sido un Ponzi. esquema todo el tiempo.

  • 00:40:00 En esta sección, Irene Aldridge analiza el diseño de curvas de creación de mercado automatizadas (AMM) y las compara con ejemplos de varios intercambios de criptomonedas. Ella destaca la importancia de usar curvas convexas en el diseño de AMM para garantizar la estabilidad del mercado y evitar aumentos drásticos de precios cuando se compra el inventario. Además, explica las funciones de los proveedores de liquidez y los comerciantes en el sistema y cómo se benefician de las tarifas de transacción. Aldridge también menciona rumores de sistemas AMM que se utilizan en mercados tradicionales y enfatiza la necesidad de considerar cómo funcionaría este diseño para productos como las acciones de IBM.

  • 00:45:00 En esta sección, Irene Aldridge analiza la convergencia de los mercados tradicionales y el mundo de creación de mercado automatizado, donde los creadores de mercado tradicionales ya están implementando sistemas similares. Ella señala que se esperan muchos cambios en la forma en que las personas interactúan con los mercados, cómo se construyen las estrategias de capacitación, cómo se lleva a cabo la ejecución y qué tan transparente se vuelve todo. También señala que la microestructura está cambiando en los mercados debido a la influencia de los creadores de mercado automatizados. Irene brinda una comprensión básica de cómo se utilizan los datos diarios de IBM para estimar las curvas de AMM y cómo los datos más granulares facilitarían la obtención de estimaciones más claras.

  • 00:50:00 En esta sección, Irene Aldridge analiza la viabilidad de implementar liquidez automatizada en entornos comerciales 24 horas al día, 7 días a la semana, como el criptomercado, donde los métodos tradicionales de creación de mercado pueden no ser tan efectivos. Ella explica que la creación de mercado automatizada puede eliminar los riesgos asociados con los métodos tradicionales de creación de mercado y que la tecnología está ampliamente disponible. Sin embargo, advierte que no todos los intercambios de cifrado utilizan la creación de mercado automatizada y que se necesita investigación para abordar la gestión de riesgos y las externalidades. También señala que esta tecnología existe desde 2002 y coincidió con la aparición de criptomonedas como Bitcoin. Cuando se le preguntó acerca de la posible ventaja injusta de los comerciantes automatizados de creación de mercado que tienen acceso a información privada, Aldridge señala que este es un problema abierto que requiere más investigación.

  • 00:55:00 En esta sección, Irene Aldridge analiza cómo los distribuidores de AMM o aquellos que aceptan monedas y usan sistemas automatizados de creación de mercado (AMM) ven el flujo de pedidos antes que otros, lo que presenta un problema. Sin embargo, como hay muchas plataformas disponibles, comparar y cuantificar la curva de creación de mercado automatizada puede ayudar a mitigar este problema. Irene también señala que, debido a este problema, los mineros están motivados para seguir adelante, ya que son los únicos que se benefician al investigar y validar los bloques de pedidos. Sin embargo, a menos que exista un incentivo privado, cada vez es más difícil ganar dinero en este espacio, lo que lleva a la formación de oligopolios. Irene sugiere que el seguro podría ser un incentivo natural para que los mineros se beneficien y trabajen casi gratis. Sin embargo, las compañías de seguros ven a blockchain como una gran amenaza para su existencia, por lo que existe resistencia a este tipo de diseño de sistemas. Por último, Irene aborda una pregunta sobre la posibilidad de un esquema de fraude, afirmando que podría haber uno en la curva de IBM, donde se podría argumentar que se está manipulando el fondo.

  • 01:00:00 En esta sección, Irene Aldridge analiza el uso de modelos automatizados de creación de mercado en libros de órdenes limitadas centralizados. Los participantes del mercado están utilizando sus propios AMM, ya que es de bajo costo y está automatizado, lo que proporciona liquidez al mercado con el potencial de generar ganancias. A pesar de esto, actualmente es difícil diferenciar entre los comerciantes que usan un AMM y los que colocan órdenes limitadas manualmente. Aldridge sugiere que identificar a los malos actores a través de los datos de la microestructura puede ser un problema abierto, pero si los AMM continúan dominando el mercado, surgirá un modelo más optimizado.
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
Irene Aldridge (AbleBlox and AbleMarkets): "Crypto Ecosystem and AMM Design"
  • 2023.03.29
  • www.youtube.com
Abstract: Assets on blockchain trade 24x7 with very thin liquidity. This demands new fully automated processes, including Automated Market Making (AMM). We d...
 

Agostino Capponi (Columbia): "¿Los pools de transacciones privadas mitigan el riesgo de frontrunning?"


Agostino Capponi (Columbia): "¿Los pools de transacciones privadas mitigan el riesgo de frontrunning?"

Agostino Capponi, investigador de la Universidad de Columbia, profundiza en el tema de la ejecución frontal en los intercambios descentralizados y propone grupos de transacciones privadas como una posible solución. Estos grupos privados operan fuera de la cadena y separados del grupo público, lo que garantiza que los validadores comprometidos a no involucrarse en la ejecución los manejen. Sin embargo, Capponi reconoce que el uso de grupos privados conlleva un riesgo de ejecución, ya que no todos los validadores participan en el grupo privado, lo que significa que existe la posibilidad de que las transacciones pasen desapercibidas y no se ejecuten. Es importante tener en cuenta que la adopción de grupos privados podría no necesariamente reducir la tarifa de prioridad mínima requerida para la ejecución. Además, Capponi señala que la competencia entre los atacantes de vanguardia beneficia a los validadores a través del valor extraíble máximo (MEV). En última instancia, si bien los fondos privados pueden mitigar el riesgo inicial, pueden aumentar la tarifa necesaria para la ejecución, lo que genera ineficiencias en la asignación.

Capponi destaca la correlación entre la proporción de transacciones enrutadas a través de grupos privados y la probabilidad de ser de primera ejecución, lo que complica la asignación óptima. También explora diferentes tipos de ataques frontales, incluidos los ataques de supresión y desplazamiento, y presenta datos que muestran las pérdidas sustanciales incurridas debido a la ejecución frontal. Para abordar estos riesgos, Capponi sugiere educar a los usuarios sobre el tiempo de las transacciones y hacer que la validación de las transacciones sea más determinista para crear un sistema más equitativo.

La discusión toca la dinámica de los grupos de transacciones privadas, los desafíos de la adopción y las posibles compensaciones involucradas. Capponi explica cómo los grupos privados brindan protección contra la ejecución anticipada, pero advierte que su efectividad depende de la cantidad de validadores que participan en el grupo privado. Además, aborda el tema de los validadores que no adoptan pools privados debido a la pérdida de MEV, proponiendo soluciones potenciales como subsidios a los usuarios para incentivar su adopción.

Si bien los grupos de transacciones privadas pueden mitigar los riesgos iniciales hasta cierto punto, Capponi enfatiza que no son infalibles y es posible que no logren una asignación óptima. La complejidad surge de factores como la competencia entre atacantes, la tasa de adopción de validadores en grupos privados y el impacto resultante en las tarifas de ejecución. La discusión plantea consideraciones importantes para la comunidad de blockchain al abordar los riesgos iniciales y garantizar un entorno de intercambio descentralizado justo y eficiente.

  • 00:00:00 En esta sección, Agostino Capponi introduce el tema de los intercambios descentralizados y los riesgos que enfrentan. Él explica que la arquitectura blockchain funciona al enviar transacciones a un grupo de memoria al que luego acceden los validadores que agregan las transacciones a los bloques y reciben tarifas de los usuarios. Capponi señala que los usuarios pueden priorizar sus transacciones al ofrecer tarifas más altas, pero este sistema puede generar una ejecución anticipada. Introduce el concepto de grupos privados como una posible solución a este problema y analiza cómo su equipo construyó un modelo de teoría de juegos para probar la eficacia de estos grupos para mitigar la ejecución anticipada.

  • 00:05:00 En esta sección, Agostino Capponi describe el problema de las cadenas de bloques públicas de acceso abierto, que permiten a los usuarios ver y enviar transacciones. Los ataques de ejecución frontal ocurren cuando los usuarios aprovechan la información procesable sobre transacciones pendientes o ejecutadas. Capponi explica el ataque sándwich, en el que un atacante aplica una tarifa más alta para ejecutar la transacción antes que el usuario, lo que hace que el precio suba y luego ejecuta una transacción inversa para obtener una ganancia. Aunque existe el riesgo de fallar si la tarifa del atacante no es lo suficientemente alta, los atacantes suelen programar sus órdenes para aumentar sus posibilidades de éxito.

  • 00:10:00 En esta sección, Agostino Capponi analiza varios tipos de ataques frontales, incluidos los ataques de supresión y los ataques de desplazamiento, en los que un atacante envía múltiples transacciones o desplaza la transacción de otro usuario para ejecutar primero la transacción deseada. Capponi cuestiona si el front-running es un riesgo material que limita la adopción de blockchain y presenta un gráfico que muestra la cantidad de ataques front-running y los ingresos generados por ellos desde mayo de 2020 hasta marzo de 2021, lo que indica una pérdida de aproximadamente 10,000 ethereum, o $125 millones. dos al frente corriendo.

  • 00:15:00 En esta sección, Agostino Capponi analiza el tema de la ejecución anticipada en las transacciones de Ethereum y sus costos asociados, tanto directos como indirectos. Explica que una solución a este problema es el uso de grupos de transacciones privados, que son esencialmente canales paralelos fuera de la cadena que están separados del grupo público y solo pueden ser monitoreados por algunos validadores. Las transacciones enviadas a estos grupos privados tienen cero riesgo de ejecución inicial siempre que los validadores se comporten con honestidad, y si se descubre que son transacciones de ejecución inicial, serán expulsadas del grupo. En general, los grupos de transacciones privadas brindan una buena solución para aquellos que están preocupados por la ejecución anticipada y desean que sus transacciones se ejecuten sin ser ejecutadas por anticipado.

  • 00:20:00 En esta sección, Agostino Capponi analiza el uso de grupos privados de transacciones y si pueden mitigar el riesgo de frontrunning. Capponi explica que los grupos privados solo son visibles para los validadores y están fuera de la cadena, lo que significa que los atacantes no pueden acceder a ellos. Esto elimina la posibilidad de ser adelantado y brinda garantías, ya que los validadores se comprometen a no participar en la ejecución anticipada. Capponi también aborda el tema de la adopción y si los usuarios enviarán sus transacciones al grupo. Además, menciona cómo los atacantes aún pueden competir entre sí, pero el grupo privado puede reducir el riesgo de inversión insuficiente por parte de los bots de arbitraje. Finalmente, presenta un modelo simple con tres agentes para discutir si se observará la adopción de grupos privados.

  • 00:25:00 En esta sección, Agostino Capponi analiza el concepto de grupos de transacciones privadas y si mitigan o no los riesgos iniciales. Explica que hay dos lugares posibles para presentar transacciones: el grupo privado y el grupo público. Después de que los validadores hayan adoptado qué grupo monitorear, los usuarios superarán su tarifa de prioridad y elegirán dónde desean enviar la transacción. Luego, los atacantes buscarán oportunidades, enviarán transacciones y decidirán dónde enviarlas. Capponi enfatiza la importancia de la probabilidad en la detección de oportunidades y las probabilidades de lograr una carrera frontal exitosa.

  • 00:30:00 En esta sección, el orador explica el concepto de grupos de transacciones privadas y si pueden mitigar los riesgos iniciales. Los grupos de transacciones privadas pueden brindar protección contra los riesgos iniciales, ya que solo el validador que agrega el bloque puede ver las transacciones, lo que evita que otros árbitros identifiquen oportunidades antes que el usuario. Sin embargo, enviar a través de un grupo privado conlleva un riesgo de ejecución, ya que no todos los validadores estarán en el grupo privado y existe la posibilidad de que la transacción no sea visible y, por lo tanto, no se ejecute. Si bien las transacciones de grupos privados tienen prioridad sobre las transacciones de grupos públicos, la cantidad de validadores que monitorean el grupo privado afecta el riesgo de ejecución, por lo que es una preocupación que los usuarios deben considerar antes de enviar una transacción a través del grupo privado.

  • 00:35:00 En esta sección, Agostino Capponi explica que los grupos de transacciones privadas pueden mitigar los riesgos iniciales hasta cierto punto, pero no son infalibles. Los atacantes se involucrarán en una carrera armamentista para ganar prioridad en la ejecución de su orden, y pueden usar grupos privados y públicos para reducir el riesgo de ejecución y aún así recibir una ejecución priorizada. Mientras tanto, los usuarios que pueden ser pioneros decidirán si envían sus transacciones al grupo privado o al grupo público en función de la tasa de adopción de validadores en el grupo privado y el costo inicial. Si la tasa de adopción es alta, usarán el pool privado para evitar ser front-run, pero si es baja, pueden elegir el pool público para evitar esperar demasiados bloques para la ejecución a pesar del riesgo de ser front-run.

  • 00:40:00 En esta sección, Agostino Capponi explica cómo los grupos de transacciones privadas pueden mitigar potencialmente el riesgo de ejecución frontal. Si un usuario se envía a un grupo privado y todos los validadores se unen a ese grupo, se elimina el riesgo de ejecución frontal porque no hay oportunidad de arbitraje. Sin embargo, en los casos en que el riesgo de ejecución frontal es bajo, no todos los validadores adoptarán el grupo privado, lo que significa que el usuario puede optar por el grupo público, exponiéndose nuevamente al riesgo de ejecución frontal.

  • 00:45:00 En esta sección, Agostino Capponi analiza si los grupos de transacciones privadas pueden mitigar el riesgo inicial y reducir la tarifa mínima necesaria para la ejecución. Se argumenta que el riesgo anticipado solo se elimina si la pérdida es grande, e incluso entonces, algunas pérdidas anticipadas no pueden eliminarse. Además, la competencia entre los atacantes de vanguardia beneficia a los validadores o mineros a través del valor extraíble máximo (MEV). La adopción de pools privados puede no necesariamente reducir la tarifa de prioridad mínima necesaria para la ejecución, ya que los validadores solo están dispuestos a adoptar pools privados si pueden ganar una tarifa más alta. Además, la existencia de un pool privado puede generar una mayor demanda de espacio en bloque, lo que aumentaría la tarifa necesaria para la ejecución. En última instancia, es posible que los grupos privados no siempre reduzcan el riesgo inicial, pero pueden aumentar la tarifa necesaria para la ejecución, lo que lleva a una ineficiencia en la asignación.

  • 00:50:00 En esta sección, el orador analiza las ineficiencias causadas por los riesgos iniciales en las cadenas de bloques. La primera ineficiencia se debe a que los usuarios pueden decidir no enviar transacciones debido al riesgo de ser adelantados, lo que puede conducir a una asignación de transacciones subóptima. La segunda ineficiencia proviene de los ataques frontales, en los que un atacante ejecuta una transacción antes que la víctima, lo que resulta en una transferencia de valor. Para mitigar estos riesgos, se proponen grupos de transacciones privadas, que pueden aumentar el valor de las transacciones y ayudar a los usuarios a enviar sin temor a la delantera. Sin embargo, la adopción de grupos privados por parte de todos los validadores no siempre es posible debido a un MEV deficiente y la consiguiente pérdida de ingresos para los validadores.

  • 00:55:00 En esta sección, Agostino Capponi analiza el problema de los validadores que no adoptan los grupos privados, aunque sería un resultado socialmente óptimo. La razón es que perderían su MEV (Valor Extraíble Máximo) y sin un beneficio para ellos, no cambiarían. La solución sería que los usuarios de front run subsidiaran a los validadores comprometiéndose a pagarles monetariamente equivalente a lo que se habrían ahorrado de no ser front run. Los datos indican que si la competencia por ser el primero en ejecutar es feroz, la relación costo-ingreso de los atacantes es sustancialmente menor debido a la adopción de grupos privados de bots flash.
  • 01:00:00 En esta sección, Agostino Capponi analiza su investigación sobre los grupos de transacciones privadas y si mitigan el riesgo de la delantera. Explica que, si bien los grupos privados pueden ofrecer cierta mitigación para las grandes pérdidas iniciales, no son beneficiosos para los atacantes que ejecutan bots de arbitraje, ya que pueden empeorar su situación. La probabilidad de ser frontrun se puede estimar observando el desfase en el que incurriría la transacción en comparación con el precio que debe pagarse por el frontrun. Capponi señala que existe una correlación positiva entre la probabilidad de ser frontrun y la proporción de transacciones que se enrutan a través de grupos privados. Concluye que los grupos privados no pueden lograr una asignación óptima ya que no todos los validadores supervisan el grupo, lo que genera ineficiencias como el riesgo inicial o la asignación de espacio de bloque a una transacción ejecutable inicial.

  • 01:05:00 En esta sección, Agostino Capponi de la Universidad de Columbia analiza el uso de grupos de transacciones privadas para evitar los riesgos iniciales en blockchain, particularmente en Ethereum y Polygon. También señala que actualmente existe una entidad monopólica que recibe todas las recompensas del proveedor, y Ethereum está considerando soluciones como la quema o la redistribución del valor extraíble menor (MEV) para evitar esto. Capponi también plantea el tema controvertido de las armas de destrucción matemática en el contexto de las transacciones de blockchain y la transferencia de valor de quienes no entienden la fórmula a quienes sí la entienden.

  • 01:10:00 En esta sección, los disertantes analizan el tema de la delantera en los grupos de transacciones privadas y cómo puede afectar a los usuarios no sofisticados, como las oficinas familiares. Sugieren que para que el sistema sea más equitativo, debe haber una manera de educar a estos usuarios sobre cómo sincronizar mejor sus transacciones para evitar ser adelantados. También señalan que los bots que se involucran en la ejecución son extremadamente sofisticados y usan algoritmos complejos para determinar la mejor manera de ejecutar transacciones mientras generan la mayor ganancia. Los oradores sugieren que si el momento de la validación de la transacción fuera más determinista, sería más fácil para los usuarios cronometrar mejor sus transacciones y reducir el riesgo de ejecución anticipada.
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
Agostino Capponi (Columbia): "Do Private Transaction Pools Mitigate Frontrunning Risk?"
  • 2023.01.25
  • www.youtube.com
Abstract: Blockchain users who submit transactions through private pools are guaranteed pre-trade privacy but face execution risk. We argue that private poo...
 

Dr. Kevin Webster: "Obtener más por menos: mejores pruebas A/B a través de la regularización causal"



Dr. Kevin Webster: "Obtener más por menos: mejores pruebas A/B a través de la regularización causal"

En este video, el Dr. Kevin Webster profundiza en los desafíos asociados con los experimentos comerciales y el aprendizaje automático causal, ampliando varios temas clave. Un problema destacado que aborda es el sesgo de predicción en el comercio, donde el rendimiento observado durante una operación es una combinación del impacto del precio y el movimiento del precio previsto. Para mitigar este sesgo, el Dr. Webster propone dos enfoques: el uso de datos comerciales aleatorios y la aplicación de la regularización causal. Al incorporar la señal comercial que provocó una operación en el modelo de regresión, se pueden eliminar los sesgos.

El Dr. Webster introduce el concepto de un gráfico causal, que involucra tres variables: el alfa de la operación, el tamaño de la operación y los rendimientos durante la operación. Afirma que estimar con precisión el impacto del precio es un desafío sin observar alfa, y las técnicas econométricas tradicionales se quedan cortas en este sentido. Destaca las limitaciones de los experimentos comerciales aleatorios debido a su tamaño y duración limitados, y enfatiza la necesidad de un diseño cuidadoso del experimento y una estimación de costos utilizando simuladores.

Para superar las deficiencias de la econometría tradicional, el Dr. Webster aboga por la regularización causal. Este método, derivado de Amazon, utiliza datos sesgados para el entrenamiento y datos imparciales para las pruebas, lo que da como resultado estimadores de baja varianza y sesgo bajo. Aprovecha la gran cantidad de datos organizacionales disponibles y corrige los sesgos, lo que permite predicciones más precisas.

Estimar alfa sin conocer su impacto plantea un desafío importante, especialmente cuando los datos comerciales carecen de confiabilidad. El Dr. Webster sugiere el uso de la presentación aleatoria de operaciones para obtener datos imparciales sin depender de la tecnología de fijación de precios. Sin embargo, este enfoque requiere renunciar a una gran fracción de operaciones para establecer un intervalo de confianza en alfa, lo que puede no ser práctico. Alternativamente, propone aprovechar el aprendizaje automático causal para lograr resultados similares con menos datos. El aprendizaje automático causal resulta particularmente valioso en las aplicaciones comerciales, como el análisis de costos de transacción, la evaluación del impacto de los precios y la investigación alfa, superando la econometría tradicional debido a la disponibilidad de datos comerciales profundos y sesgados.

El orador también profundiza en la importancia del análisis estadístico en las pruebas A/B, enfatizando la necesidad de definir el impacto del precio y adjuntar una medida estadística para combatir el sesgo de predicción. Sin abordar este sesgo, el análisis se vuelve subjetivo y depende de la interpretación individual. El Dr. Webster reconoce los desafíos que plantean los datos públicos de observación y destaca los conocimientos adquiridos a partir de los datos de intervención. Aunque responder a la pregunta de qué enfoque adoptar es complejo, las pruebas A/B siguen siendo una práctica común en las industrias bancarias y de corretaje.

Por último, el Dr. Webster analiza brevemente la relación entre el aprendizaje por transferencia y la regularización causal. Si bien ambos implican entrenar un modelo en un conjunto de datos y aplicarlo a otro, el aprendizaje de transferencia carece de una interpretación causal. La analogía entre los dos radica en su proceso de validación, con la validación cruzada jugando un papel fundamental. A pesar de sus similitudes matemáticas, el Dr. Webster enfatiza la novedad de la interpretación causal en el enfoque.

  • 00:00:00 Kevin Webster habla sobre experimentos comerciales en vivo y aprendizaje automático causal. Describe un escenario en el que un fondo de cobertura negocia a través de un corredor, que es responsable de ejecutar la operación y garantizar la mejor ejecución al tiempo que demuestra que actuó en el mejor interés del cliente. El bróker enfrenta dificultades ya que sus clientes no negocian aleatoriamente en función de las señales Alpha, y el rendimiento observado durante una operación es una combinación del impacto del precio y el movimiento del precio previsto causado por la operación. Webster tiene como objetivo abordar este problema mediante la regularización causal y propone un modelo que aprende cómo se relaciona el movimiento del precio previsto con el flujo de órdenes.

  • 00:05:00 El orador analiza la distinción entre las señales alfa y el impacto del precio, que son dos componentes de los rendimientos. Las señales alfa predicen movimientos de precios que ocurrirían independientemente de si las acciones se negocian o no, mientras que el impacto del precio describe los movimientos de precios causados por la negociación. Los comerciantes utilizan los back-knolls de precios para simular cómo reaccionarían los precios a sus operaciones y responder a escenarios hipotéticos. Sin embargo, es difícil distinguir si los comerciantes provocaron un movimiento de precios o lo predijeron, lo que genera un sesgo de predicción. Los datos patentados de CFM y otras técnicas pueden ayudar a eliminar los sesgos y corregir el sesgo de predicción al tener en cuenta la señal comercial que provocó una regresión comercial.

  • 00:10:00 En esta sección del video, el Dr. Kevin Webster analiza el tema del sesgo de predicción en el comercio y cómo afecta tanto a los corredores como a los investigadores alfa. Explica que si bien un investigador alfa puede tener la señal alfa, es posible que no tenga un buen modelo de impacto en el precio, lo que conduce a una sobreestimación de alfa. Por el contrario, si los corredores no conocen el alfa, operarán demasiado lento para el cliente. El Dr. Webster propone utilizar el comercio aleatorio, que es costoso, o la regularización causal, un método que combina datos de comercio aleatorio y datos históricos de una manera inteligente para obtener un mejor rendimiento que la econometría tradicional. Concluye afirmando que comparará el rendimiento de estos métodos mediante una simulación.

  • 00:15:00 El Dr. Kevin Webster analiza tres métodos de prueba econométrica, enfatiza la importancia de la inferencia causal y explica cómo ya se está utilizando activamente en la industria tecnológica, particularmente en la comunidad de aprendizaje automático. Además, enfatiza cómo estas empresas están utilizando el aprendizaje automático causal para permitir que sus equipos se alineen rápidamente con la verdad del terreno, eliminar la reinvestigación de hallazgos sorprendentes, evitar volver a ejecutar experimentos defectuosos y evitar dudas sobre decisiones cruciales. Los métodos del Dr. Webster utilizan una combinación de pruebas causales y econométricas, lo que permite predicciones más precisas basadas en cinco veces menos datos.

  • 00:20:00 El autor propone un gráfico causal para su estudio que involucra tres variables: alfa de la operación, tamaño de la operación y retornos durante la operación. Él asume que las características subyacentes de sus modelos Alpha impulsan los diferentes movimientos de precios fundamentales en la acción, y su algoritmo comercial reacciona a las señales Alpha, provocando intercambios. También supone que las operaciones provocan movimientos en los precios, lo que se conoce como impacto en los precios. Según el Dr. Webster, no importa qué técnica de regresión sofisticada utilicen los comerciantes, no podrán estimar el impacto del precio sin observar Alpha. Los comerciantes pueden estimar el impacto del precio aleatorizándolo, lo que se usa activamente en la industria financiera y se conoce como gasto comercial aleatorio. Sin embargo, su uso está limitado solo a órdenes sustantivas porque tales aleatorizaciones son costosas.

  • 00:25:00 El orador analiza las limitaciones de los experimentos comerciales aleatorios en comparación con los datos de observación debido al tamaño y la duración limitados de los experimentos. Para un conjunto razonable de parámetros, el conjunto de datos de observación puede ser más grande que el conjunto de datos de intervención, y los comerciantes deben diseñar experimentos antes de implementarlos debido al costo de cometer errores. El uso de un simulador para determinar el costo y el intervalo de confianza del experimento antes de enviar intercambios aleatorios es crucial. Sin considerar el sesgo, ignorar Alfa dará como resultado un alto sesgo y una baja varianza.

  • 00:30:00 El Dr. Kevin Webster explica las limitaciones de la econometría tradicional e introduce el concepto de regularización causal, que es un método que surgió de Amazon e implica el uso de datos sesgados como datos de entrenamiento y datos imparciales como datos de prueba para ajustar metaparámetros. El método asegura un estimador de baja varianza y bajo sesgo, a diferencia de los métodos tradicionales que solo usan una pequeña cantidad de datos experimentales. El algoritmo de regularización causal permite utilizar la gran cantidad de datos organizativos disponibles y corregir cualquier sesgo para proporcionar estimaciones precisas a los comerciantes.

  • 00:35:00 En esta sección del video, el Dr. Kevin Webster analiza los desafíos de estimar Alpha sin conocer el impacto cuando no hay confianza en los datos comerciales. Sugiere una solución en la que las transacciones no se envían aleatoriamente para obtener datos imparciales, que no tienen modelo y no requieren tecnología de fijación de precios. Sin embargo, la desventaja es que se debe renunciar a una gran parte de las operaciones para obtener un intervalo de confianza en Alpha, lo que podría no ser práctico para los comerciantes. Luego propone un método de aprendizaje automático para abordar este problema y obtener el mismo resultado con menos datos. El aprendizaje automático causal es aplicable a las aplicaciones comerciales, como el análisis de costos de transacción, el impacto de los precios y la investigación Alpha, y supera a la econometría tradicional en los regímenes de datos comerciales debido a la disponibilidad de datos comerciales profundos y sesgados.

  • 00:40:00 El orador discute la incertidumbre fundamental involucrada en las pruebas A/B y cómo el análisis estadístico juega un papel crucial en encontrar la verdad fundamental estadísticamente significativa, pero no a nivel de comercio por comercio. Él enfatiza que definir el impacto del precio y adjuntar un número estadístico a esa definición puede ayudar a combatir el sesgo de predicción. Sin embargo, sin algo que combata el sesgo de predicción, el análisis se vuelve subjetivo y depende del ojo del espectador. El Dr. Webster también analiza los desafíos que implican los datos públicos de observación y cómo los datos de intervención pueden proporcionar más información sobre el análisis. Reconoce que si bien es una pregunta difícil de responder, las pruebas A/B son una transformación común que adoptan muchos bancos y corredores.

  • 00:45:00 El Dr. Kevin Webster analiza brevemente la relación entre el aprendizaje por transferencia y la regularización causal. Señala que existe una analogía entre los dos, ya que ambos implican entrenar un modelo en un conjunto de datos y esperar que funcione bien en otro conjunto de datos. Si bien el aprendizaje por transferencia carece de una interpretación causal, la prueba del aprendizaje por transferencia funciona debido a la validación cruzada, que también se aplica a la regularización causal. A pesar de la similitud matemática, el Dr. Webster afirma que la interpretación causal del enfoque es bastante novedosa.
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
Dr. Kevin Webster: "Getting More for Less - Better A/B Testing via Causal Regularization"
  • 2022.11.09
  • www.youtube.com
Abstract: Causal regularization solves several practical problems in live trading applications: estimating price impact when alpha is unknown and estimating...
 

Yuyu Fan (Alliance Bernstein): "Aprovechamiento de la minería de texto para extraer información"



Yuyu Fan (Alliance Bernstein): "Aprovechamiento de la minería de texto para extraer información"

Yuyu Fan, investigador de Alliance Bernstein, brinda información valiosa sobre la aplicación del procesamiento del lenguaje natural (NLP) y el aprendizaje automático para analizar las transcripciones de llamadas de ganancias y generar estrategias comerciales efectivas.

El equipo de Fan empleó varias técnicas, incluido el análisis de sentimientos, el análisis contable y la puntuación de legibilidad, para evaluar más de 200 características extraídas de las transcripciones de llamadas de ganancias. Utilizaron modelos avanzados como BERT (Representaciones de codificador bidireccional de transformadores) para evaluar el sentimiento de los oradores, comparando el sentimiento de los directores ejecutivos con el de los analistas. Curiosamente, descubrieron que el sentimiento de los analistas tiende a ser más confiable.

El análisis se realizó tanto en secciones individuales como en secciones combinadas de las transcripciones, y el equipo descubrió que un enfoque basado en el contexto supera a un enfoque ingenuo basado en palabras de fondo. La señal de sentimiento, en particular para las empresas estadounidenses de pequeña capitalización, funcionó bien y fue recomendada por los equipos de inversión.

Al explicar la metodología, Fan describe cómo su equipo usó la selección por cuantiles y las pruebas retrospectivas para evaluar el rendimiento de diferentes funciones. Examinaron puntuaciones de sentimiento basadas en enfoques basados en diccionarios, así como enfoques basados en contexto utilizando BERT. El equipo también profundizó en las puntuaciones de legibilidad, que miden la facilidad de comprensión de un texto, centrándose en los comentarios del director general para identificar posibles correlaciones con el rendimiento de la empresa.

Fan brinda información sobre el funcionamiento de BERT, destacando su representación de codificador bidireccional que captura información contextual de la izquierda y la derecha de una palabra determinada. El equipo ajustó el modelo BERT para el análisis de opiniones agregando etiquetas de opiniones mediante autoetiquetado y conjuntos de datos externos. Sus hallazgos indicaron que el análisis de sentimientos basado en BERT superó al análisis de sentimientos basado en diccionarios, como lo demuestran los ejemplos de las transcripciones de llamadas de ganancias.

Además, Fan analiza los desafíos de establecer umbrales de precisión para el análisis de sentimientos y enfatiza que el rendimiento práctico puede no diferir significativamente entre los niveles de precisión. Destaca el éxito de su señal de confianza en las empresas estadounidenses de pequeña capitalización, lo que llevó a su recomendación por parte de los equipos de inversión. Fan también menciona la publicación de un documento que detalla las características de NLP que podrían servir como señales cuantitativas para crear estrategias comerciales eficientes, con esfuerzos continuos para mejorar el modelo a través del aumento de datos.

La discusión se expande para cubrir la correlación entre las funciones de NLP y las funciones fundamentales y cuantitativas tradicionales, destacando la correlación moderada observada para la legibilidad y la contabilidad de sentimientos. Fan aclara su metodología de devolución, incluida la selección de empresas en función de la última información disponible antes del reequilibrio.

Hacia el final, Fan toca temas como el arbitraje de CO2, la diferencia entre BERT y FinBERT, y el desarrollo de un modelo de uso financiero para BERT específicamente diseñado para presentaciones, ganancias y noticias relacionadas con las finanzas. También se menciona el proceso de convertir datos de audio en transcripciones para su análisis, con el uso de servicios de transcripción y soluciones de proveedores.

En resumen, la investigación de Yuyu Fan muestra el poder de la PNL y las técnicas de aprendizaje automático para analizar las transcripciones de llamadas de ganancias. La aplicación de análisis de sentimiento, análisis contable y puntuación de legibilidad, junto con la utilización de modelos avanzados como BERT, permite la generación de estrategias comerciales eficientes. El enfoque basado en el contexto supera a los enfoques ingenuos, y la señal de sentimiento resulta valiosa, en particular para las empresas estadounidenses de pequeña capitalización, según lo recomendado por los equipos de inversión de Alliance Bernstein.

  • 00:00:00 Yuyu Fan habla sobre el uso del procesamiento de lenguaje natural (NLP) para analizar las transcripciones de llamadas de ganancias en finanzas. Las empresas utilizan las llamadas de ganancias para compartir información financiera y comercial con la comunidad inversora, y los analistas suelen analizar las transcripciones en busca de información que pueda afectar el rendimiento de las empresas y los precios de las acciones. Sin embargo, el análisis manual de las transcripciones para un gran universo de empresas requiere mucha mano de obra, que es donde entran en juego las técnicas de PNL y aprendizaje automático. Se ha demostrado que dichas técnicas son eficientes para analizar documentos financieros y formular estrategias comerciales eficientes. La investigación de Yuyu Fan se expande más allá de las pruebas típicas en empresas de gran capitalización de EE. UU. para incluir diferentes capitalizaciones universales, incluidas empresas de pequeña capitalización de EE. UU. y mercados emergentes. Además, el análisis se realiza en secciones individuales, así como en las secciones combinadas de las transcripciones, y una comparación sistemática muestra que el enfoque basado en el contexto supera al enfoque ingenuo de palabras de fondo.

  • 00:05:00 Yuyu Fan analiza los datos utilizados para su análisis de minería de texto y explica la estructura de las transcripciones de llamadas de ganancias, que se componen de dos secciones: la presentación y la sección de preguntas y respuestas. Generaron funciones de PNL en cada una de estas secciones individuales, así como en las secciones combinadas. Las tres categorías de características de NLP generadas son puntajes de sentimiento, contabilidad y legibilidad. También proporcionan un método simple de prueba posterior para su análisis. Las funciones de sentimiento se dividen a su vez en dos categorías, una basada en un diccionario y la otra en el contexto.

  • 00:10:00 Yuyu Fan de Alliance Bernstein explica cómo utilizan la minería de texto para examinar más de 200 características que se generan para encontrar señales de inversión sólidas y de buen rendimiento. No solo consideran la minería de datos, sino también el análisis fundamental y la intuición económica, así como la investigación previa. Clasifican los componentes por valores de características y realizan un seguimiento de los rendimientos mensuales de cada cuantil para evaluar el rendimiento. La primera categoría es el conteo de palabras simple, y una de las características es el conteo de palabras de las preguntas de los analistas, que generalmente tiene un desempeño consistente con sus expectativas previas, excepto en los mercados emergentes que tienen comportamientos diferentes. Evalúan el rendimiento utilizando métricas básicas como el retorno anualizado y el muro y descubren que esta señal está bien, no tan bien.

  • 00:15:00 La oradora explica el concepto de puntajes de legibilidad y cómo su equipo los usa para analizar los comentarios del CEO. Los puntajes de legibilidad son una métrica utilizada para medir qué tan difícil es leer y comprender un texto, teniendo en cuenta la cantidad de palabras difíciles y la longitud de la oración. Las puntuaciones más altas significan que el texto es más difícil de entender y las puntuaciones más bajas significan que es más fácil de comprender. El equipo de Fan usó un paquete Python de código abierto llamado "estadísticas de texto" para calcular los puntajes de legibilidad de los comentarios del CEO, con la hipótesis de que es más probable que los comentarios más fáciles de entender conduzcan a un desempeño transparente y bueno de las empresas. Luego, el equipo usó la selección de cuantiles para evaluar diferentes características y recomendar las de mejor desempeño a los equipos de inversión.

  • 00:20:00 Yuyu Fan de Alliance Bernstein analiza cómo se puede utilizar el análisis de sentimientos para extraer información de las transcripciones de los discursos de los directores ejecutivos. Fan explica que las puntuaciones de opinión se pueden calcular utilizando enfoques basados en diccionarios, como diccionarios genéricos o propietarios que están diseñados específicamente para la investigación financiera. Los resultados muestran que el análisis de sentimiento basado en el diccionario LM transmite más señales de inversión, especialmente para las empresas estadounidenses de pequeña capitalización. Se utiliza el reequilibrio mensual y las empresas se clasifican por quintiles neutrales al sector. Los resultados para cada quintil son más diferenciables cuando se utiliza el análisis de opinión, lo que indica que una mayor opinión conduce a un mejor rendimiento.

  • 00:25:00 Yuyu Fan de Alliance Bernstein explica cómo su equipo utilizó la minería de texto para extraer información y evaluar el sentimiento de los oradores. Analizaron las diferencias entre el sentimiento del CEO y el sentimiento de los analistas, y descubrieron que el sentimiento de los analistas puede ser un indicador más confiable debido a que los CEO pueden distorsionar los resultados del análisis hacia su discurso. También profundizaron en la comprensión del lenguaje natural, utilizando específicamente el modelo Transformer llamado BERT. BERT utiliza una representación de codificador bidireccional, lo que significa que tiene en cuenta la información circundante a la izquierda y a la derecha para predecir mejor el significado de una palabra específica dentro de su contexto.

  • 00:30:00 Yuyu Fan explica cómo funciona el modelo BERT (Representaciones de codificador bidireccional de transformadores) para el análisis de sentimientos. La parte del codificador del modelo se utiliza para la comprensión del lenguaje lateral (comprensión del lenguaje sin necesidad de traducción). Las incrustaciones de esta parte del modelo pueden representar información de la oración completa y se pueden ajustar para crear un modelo de clasificación de sentimientos. Mediante el uso de modelos BERT previamente entrenados y la adición de una tarea de clasificación de sentimiento descendente, el ajuste se hace mucho más fácil. Las etiquetas de opinión se agregan a través del autoetiquetado y se asignan etiquetas a través de conjuntos de datos externos, y el modelo se entrena para predecir puntajes de opinión en un rango de -1 a 1. Finalmente, Fan muestra que el análisis de opinión basado en BERT supera al análisis de opinión basado en diccionario. análisis de sentimiento con ejemplos de transcripciones de llamadas de ganancias.

  • 00:35:00 Yuyu Fan de Alliance Bernstein analiza la minería de texto y cómo un modelo BERT preentrenado se puede ajustar con frases de etiquetas específicas para mejorar la clasificación del texto financiero. La gran cobertura de vocabulario de tokens en inglés del modelo preentrenado permite capturar combinaciones y generar palabras, pero es posible que no capture lenguaje financiero específico. Cuando se le preguntó sobre el desempeño de oraciones con palabras positivas y negativas, Yuyu Fan explica que la clasificación puede depender de la interpretación y expectativa del analista, pero la oración en sí puede clasificarse como positiva si reporta un aumento del 10 % en los ingresos.

  • 00:40:00 Yuyu Fan de Alliance Bernstein explica que es difícil tener un umbral estricto para la precisión en el análisis de sentimientos. Si bien puede marcar una gran diferencia en el mundo académico, en las aplicaciones prácticas, puede que no marque mucha diferencia, ya que una precisión del 90 % y una precisión del 92 % pueden dar lugar a un rendimiento similar cuando se agregan al nivel de sección utilizando la media o la desviación estándar. Fan explica que su modelo tiene una precisión de alrededor del 90 % en todas las oraciones, y su señal de sentimiento funciona bien en las empresas de pequeña capitalización de EE. UU., por lo que es una señal que sus equipos de inversión recomiendan usar. Fan también comparte que publicaron un artículo con más detalles sobre las funciones de NLP que podrían usarse como señales cuantitativas para formar estrategias comerciales eficientes, y actualmente están trabajando en el aumento de datos para mejorar el modelo.

  • 00:45:00 Yuyu Fan, científica de datos de Alliance Bernstein, analiza cómo sus funciones de PNL se correlacionan con las funciones fundamentales y cuantitativas tradicionales. Descubrieron que las correlaciones son generalmente bajas, con legibilidad y cuentas para el sentimiento que tienen una correlación media alrededor de 0.54 para el impulso de gran capitalización. También explica cómo miden la legibilidad usando paquetes como estadísticas de impuestos y hacen personalizaciones para su uso. Fan aclara aún más su metodología de rendimiento, donde rastrean los rendimientos de un mes y solo incluyen empresas con la información más reciente disponible antes del día de reequilibrio, generalmente después de las llamadas de ganancias trimestrales para empresas de gran capitalización. Finalmente, aborda una pregunta sobre el arbitraje de CO2 y aclara la diferencia entre BERT y FinBERT, que utilizan en su método.

  • 00:50:00 Yuyu Fan analiza el uso de la minería de texto para extraer información. Ella menciona el desarrollo de un modelo de uso financiero del modelo BERT, específicamente enfocado en presentaciones, ganancias y noticias relacionadas con las finanzas. El modelo distingue entre versiones preentrenadas y aquellas que están ajustadas, con etiquetas para probabilidades de salida positivas, negativas y neutras. Fan señala que la precisión del modelo varía según los diferentes sectores, y están explorando vías para el aumento de datos para mejorar la clasificación de sentimientos para temas específicos. La sección finaliza con una discusión sobre el proceso de convertir datos de audio en transcripciones para su análisis.

  • 00:55:00 Yuyu Fan de Alliance Bernstein analiza el uso de la minería de texto para extraer información. La empresa utiliza SMT para obtener datos de proveedores de alta calidad, así como servicios de transcripción y soluciones de proveedores para colaboraciones. También están experimentando con un modelo llamado Whisper de Open AI, que utiliza modelos de transformadores a gran escala para la transcripción de audio, incluida la transcripción multilingüe. Sin embargo, debido a limitaciones de tiempo, la sesión de preguntas y respuestas termina ahí.
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
Yuyu Fan (Alliance Bernstein): "Leveraging Text Mining to Extract Insights"
  • 2022.10.26
  • www.youtube.com
Welcome to the first of the UBS and CFEM AI, Data and Analytics Speaker Series!Yuyu Fan of Alliance Bernstein spoke about "Leveraging Text Mining to Extract ...
 

Ciamac Moallemi (Columbia): "Provisión de liquidez y creación de mercado automatizada"



Ciamac Moallemi (Columbia): "Provisión de liquidez y creación de mercado automatizada"

En esta discusión integral, Ciamac Moallemi, profesor de la Universidad de Columbia, profundiza en las complejidades de la provisión de liquidez y la creación automatizada de mercados (AMM) desde varios ángulos. Él enfatiza la relevancia de los AMM para abordar los desafíos computacionales y de almacenamiento que enfrentan las plataformas blockchain y su capacidad para generar retornos positivos para los proveedores de liquidez. Para ilustrar el concepto, Moallemi presenta el costo de selección adversa por volatilidad en UniSwap V2, revelando un costo anual de aproximadamente $39,000 en un grupo de $125 millones. Hace hincapié en la importancia de la volatilidad y el volumen de negociación para determinar los rendimientos de los proveedores de liquidez y aclara cómo los AMM manejan a los arbitrajistas y a los comerciantes informados.

Moallemi destaca las ventajas de utilizar AMM en la cadena de bloques y explora los roles de las funciones de valor agrupado y las funciones de vinculación. Destaca la importancia de cubrir los riesgos y costos asociados con las estrategias de reequilibrio. Además, Moallemi presenta su propio modelo de provisión de liquidez y creación de mercado automatizada, comparándolo con datos reales de la cadena de bloques de Ethereum. Analiza cómo su modelo puede mejorar potencialmente los AMM al reducir los costos pagados a los intermediarios. Moallemi propone varios enfoques para mitigar las ineficiencias causadas por precios subóptimos, como utilizar un oráculo como fuente de datos y vender derechos de arbitraje a participantes autorizados, lo que les permite operar contra el grupo sin cargos.

Además, Moallemi aclara las ventajas de los AMM sobre los libros de órdenes limitadas tradicionales, particularmente en términos de simplicidad y accesibilidad. Destaca cómo los AMM nivelan el campo de juego para los participantes menos sofisticados al eliminar la necesidad de algoritmos complejos y recursos extensos. Moallemi concluye expresando optimismo sobre el potencial de mejores estructuras que beneficien a una gama más amplia de participantes, posicionando a las AMM como un paso en la dirección correcta.

  • 00:00:00 En esta sección, Ciamac Moallemi de la Universidad de Columbia analiza la provisión de liquidez y la creación de mercado automatizada, centrándose principalmente en los creadores de mercado automatizados en el mundo de las criptomonedas. Explica que el problema del comercio se resuelve en gran medida mediante libros electrónicos de órdenes de límite en las finanzas tradicionales, pero hay un par de problemas con la adopción de esta estructura al por mayor en criptografía. Moallemi analiza los costos computacionales y de almacenamiento del uso de blockchain para el comercio y cómo los creadores de mercado automatizados pueden abordar estos problemas mediante el uso de algoritmos de fijación de precios para cotizar los precios de compra y venta de un activo, proporcionando liquidez al mercado.

  • 00:05:00 En esta sección, el orador analiza los desafíos de usar libros de órdenes limitadas para negociar en un entorno con altas tasas de actualización y computación y almacenamiento limitados. La creación de mercado requiere la participación de creadores de mercado activos y puede ser difícil de arrancar en el mundo de las criptomonedas, particularmente para tokens nuevos. Para abordar estos desafíos, las personas han desarrollado creadores de mercado automatizados (AMM), que utilizan proveedores de liquidez para poner un conjunto de activos como ETH y dólares estadounidenses en un conjunto. Estos AMM son computacionalmente eficientes y no requieren clasificación ni comparación, lo que los hace ideales para entornos de cadena de bloques. A los proveedores de liquidez se les pagan tarifas por negociar contra el grupo, y el precio se establece en función de lo que hay en el grupo.

  • 00:10:00 En esta sección, Ciamac Moallemi analiza la provisión de liquidez y la creación de mercado automatizada (AMM) desde la perspectiva de los proveedores de liquidez, y describe los costos y beneficios de usar sistemas AMM como UniSwap. Moallemi explica que, si bien los proveedores de liquidez pasiva pueden ganar comisiones a través de los sistemas AMM, la creación de mercado siempre tiene un costo, como una selección adversa. Usando un ejemplo concreto de UniSwap V2, Moallemi muestra que el costo de selección adversa para la volatilidad suele ser de tres puntos básicos, lo que da como resultado un costo anualizado de alrededor de 39k en un grupo valorado en $125 millones. A pesar del costo, Moallemi señala que los sistemas AMM pueden generar un rendimiento positivo para los proveedores de liquidez, pero es esencial evaluar con precisión los riesgos y costos involucrados.

  • 00:15:00 En esta sección, Ciamac Moallemi de la Universidad de Columbia analiza la provisión de liquidez y la creación de mercado automatizada. Moallemi destaca los impulsores detrás de los rendimientos de los proveedores de liquidez, específicamente la importancia de la volatilidad y el volumen de operaciones. También describe un cálculo detallado para la descomposición del rendimiento de LP, que incluye el rendimiento de la cobertura, las tarifas comerciales y el costo de la palanca. Moallemi explica que el costo de la palanca es un costo de selección adverso que surge de los precios que se fijan en un intercambio centralizado y los AMM se negocian a precios inexactos, sufriendo deslizamientos. Esto conduce a oportunidades de arbitraje, con árbitros que se benefician del grupo, lo que da como resultado un juego de suma cero. También se discuten las diferencias entre comerciantes informados y árbitros.

  • 00:20:00 En esta sección, Ciamac Moallemi analiza la dificultad de medir el comercio informado y cómo se produce la volatilidad, utilizando un modelo clásico de selección adversa. También habla sobre la interpretación de precios de opciones y la conveniencia de trabajar en tiempo continuo utilizando fórmulas de foro cerrado. Moallemi menciona otros temas populares en el mundo de la creación de mercado, como los mercados de predicción y los creadores de mercado automatizados. Luego explica cómo funciona blockchain como una computadora, haciendo un seguimiento de las transiciones y los pagos, siendo Ethereum una versión más compleja y costosa del sistema. A pesar de ser lenta y costosa, blockchain sigue siendo una parte vital de los mercados comerciales y de predicción.

  • 00:25:00 En esta sección, Ciamac Moallemi analiza la importancia de las finanzas en la utilización de computadoras lentas, especialmente en escenarios que requieren transacciones pequeñas o tareas computacionales simples. Muestra un gráfico que refleja el porcentaje de recursos gastados en el sistema Ethereum en aplicaciones relacionadas con las finanzas, siendo el comercio la subcategoría más grande y Uniswap el protocolo o contrato inteligente más importante. Aunque la mayor parte del comercio de criptomonedas ocurre en los intercambios, los intercambios descentralizados como Uniswap también son significativos, con un total de alrededor de un billón de dólares negociados. Moallemi presenta una configuración de Black-Scholes de tiempo continuo con volatilidad estocástica como modelo para negociar dos activos, un activo riesgoso denotado por "x" y un activo sin riesgo llamado el numerario denotado por "y", siendo el precio de mercado el precio del activo riesgoso en términos del numerador.

  • 00:30:00 En esta sección del video, Ciamac Moallemi explica el concepto de provisión de liquidez y creación de mercado automatizada en la industria financiera, y cómo funcionan. Habla sobre cómo los rendimientos de este proceso son un paseo aleatorio y cómo este concepto es un modelo muy estándar en las finanzas. Luego continúa explicando el concepto de un creador de mercado automatizado como un creador de mercado de función constante, donde la función se mantiene constante por la función de vinculación. Los proveedores de liquidez aportan reservas y los operadores solo pueden moverse a otro punto de la curva, lo que mantiene la función constante. La pendiente de la línea diagonal da el precio instantáneo. El mecanismo sabe qué inventario tiene para satisfacer el invariante y decir sí o no a los intercambios.

  • 00:35:00 En esta sección, Ciamac Moallemi analiza los beneficios de utilizar la creación de mercado automatizada (AMM) en la cadena de bloques en comparación con los intercambios tradicionales como Binance. Estar en la cadena de bloques permite diferentes servicios, como préstamos garantizados u optimización de cartera, que no son posibles en los intercambios tradicionales. Además, el comercio en blockchain puede ser una subrutina de un programa de computadora, una característica que no está disponible en los intercambios tradicionales. Si bien las tarifas por AMM son proporcionales a la cantidad, el nivel del proveedor de liquidez puede cambiar con el tiempo, lo que afecta la distribución de tarifas. El modelo de mercado involucra dos tipos de comerciantes: árbitros que monitorean constantemente el intercambio centralizado y el mercado externo y los comerciantes de ruido que obtienen utilidad de estar en la cadena de bloques. El análisis asume proveedores de liquidez constantes, pagos en efectivo por tarifas e ignora el tiempo discreto versus continuo en la cadena de bloques.

  • 00:40:00 En esta sección, Ciamac Moallemi explica el concepto de provisión de liquidez y creación de mercado automatizada. Utiliza el ejemplo de intercambiar x por y y la parte más lenta es la tasa a la que se puede intercambiar. Él describe cómo el problema se describe mejor al pasar a variables duales que son precios que respaldan hiperplanos. Explica que la función de valor del conjunto es un objeto crítico, y se supone que la función es suave y dos veces continuamente diferenciable. Moallemi también analiza el caso del producto constante y las propiedades de la función de enlace, que los árbitros están incentivados a equilibrar. Los árbitros están monitoreando constantemente el mercado, dejando el menor valor en el grupo para ganar la mayor cantidad de dinero posible.

  • 00:45:00 En esta sección, Ciamac Moallemi de la Universidad de Columbia analiza los ingredientes clave necesarios para la provisión de liquidez y la creación automatizada de mercados, incluida la estrategia de reequilibrio y el uso del arbitraje. La estrategia de reequilibrio implica comprar y vender activos de riesgo de la misma manera que lo hacen los árbitros, pero negociando en el intercambio centralizado a precios de mercado justos. El teorema de pérdida de palanca frente a reequilibrio caracteriza el proceso como no negativo, no decreciente y predecible, lo que demuestra que los valores de reserva del fondo pierden dinero sistemáticamente en comparación con la negociación en la bolsa. Estos ingredientes clave son importantes para la provisión efectiva de liquidez y la creación de mercado.

  • 00:50:00 En esta sección, Ciamac Moallemi analiza los riesgos y costos asociados con la estrategia de reequilibrio y cómo se pueden cubrir potencialmente. Explica que el cambio instantáneo en el valor de una cartera tiene dos componentes: el primer componente es el riesgo de mercado, lo que significa que está expuesto al mercado, mientras que el segundo componente no tiene riesgo local y es predecible, pero tiene un costo de funcionamiento sistemático. Moallemi desglosa aún más la fórmula de la palanca instantánea y cómo se ve afectada por la varianza instantánea y la cantidad de liquidez disponible en el nivel de precios actual. También demuestra cómo se puede aplicar la fórmula al creador de mercado de productos constante.

  • 00:55:00 En esta sección, Moallemi explica que el valor del fondo nunca llegará a cero, pero puede volverse menos valioso que una alternativa. La estrategia de reequilibrio puede ganar dinero sistemáticamente con el tiempo, ya que vende cuando los precios suben y compra cuando los precios bajan. Además, Moallemi analiza los supuestos del modelo, afirmando que para las carteras más líquidas es razonable suponer un mercado externo, pero para la cola larga, este no es un buen supuesto. Sin embargo, el modelo sigue siendo útil como modelo predictivo y proporciona precios consistentes. Moallemi luego explica una forma de usar el modelo como un modelo predictivo, observando las tarifas cobradas de LP y el cambio en el valor del grupo, y cubriendo el riesgo de mercado con operaciones de reequilibrio negativo en finanzas.

  • 01:00:00 En esta sección, Ciamac Moallemi de la Universidad de Columbia analiza los resultados empíricos de su modelo de provisión de liquidez y creación de mercado automatizada. Compara las pérdidas y ganancias cubiertas (P&L) de usar su fórmula con los datos reales de la cadena de bloques de Ethereum y descubre que están cerca, lo que indica que su modelo es correcto. Luego analiza la volatilidad diaria y las fluctuaciones de P&L de un grupo de Uniswap de ejemplo con $200 millones en monedas. Las fluctuaciones de pérdidas y ganancias se deben al riesgo de mercado, y Moallemi demuestra que pueden cubrirse con su fórmula, lo que da como resultado un rendimiento positivo y un alto índice de Sharpe, aunque no necesariamente sea una estrategia lucrativa debido a los costos comerciales y financieros. Sugiere que esta herramienta se puede utilizar para mejorar los creadores de mercado automatizados al reducir los costos pagados a los intermediarios.

  • 01:05:00 En esta sección, Ciamac Moallemi analiza formas de mitigar las ineficiencias causadas por los malos precios en la provisión de liquidez y la creación automatizada de mercados. Sugiere usar un oráculo como fuente de datos para tomar precios de intercambios como Binance para incorporar precios externos en contratos inteligentes y evitar el comercio fuera del mercado. Además, Moallemi presenta la idea de vender derechos de arbitraje a participantes autorizados que pueden negociar contra el grupo sin pagar tarifas, dándoles prioridad para aprovechar las discrepancias de precios más pequeñas y ganar dinero. Estos participantes devolverían parte de sus ganancias al LPS para ayudar a mitigar los malos precios y garantizar que tanto los LP como los comerciantes de ruido se beneficien de la estrategia. Moallemi también aborda preguntas sobre la implementación de AMM para operar en Binance y la venta corta en los criptomercados. Señala que la venta corta puede ser costosa debido a los costos de financiamiento y que el volumen y la volatilidad están altamente correlacionados, lo que puede hacer que la estrategia de tener un volumen largo pero una volatilidad corta sea riesgosa.

  • 01:10:00 En esta sección, Moallemi explica los problemas con el protocolo de solicitud de cotización (RFQ) en los contratos inteligentes, ya que requiere esperar a que otros respondan, lo que rompe la atomicidad de los contratos inteligentes. Sin embargo, una alternativa indirecta popular, llamada liquidez justo a tiempo, se puede utilizar para adelantar y proporcionar liquidez a pedidos grandes antes de que se procesen. Moallemi también explica cómo los creadores de mercado tradicionales cubren su riesgo y mantienen acciones por períodos cortos antes de venderlas, mientras que los proveedores de liquidez también deben cubrirse para administrar el riesgo de mercado. El modelo de fondo de liquidez funciona mejor en criptomonedas porque tienen computadoras lentas y una gran cantidad de monedas disponibles.

  • 01:15:00 En esta sección, el orador analiza las ventajas de los creadores de mercado automatizados (AMM) sobre los libros de órdenes limitadas, particularmente en términos de simplicidad y accesibilidad. Explican que la naturaleza compleja de los libros de órdenes limitadas dificulta que los creadores de mercado e incluso los comerciantes los usen sin algoritmos y un ejército de PHD, lo que crea un campo de juego más nivelado para los inversores institucionales que también usan algoritmos. Sin embargo, los AMM simplifican el proceso, lo que permite que los participantes promedio se beneficien sin necesidad de amplios conocimientos o recursos. El orador ve potencial para mejores estructuras que beneficien a los participantes menos sofisticados, lo que hace que las AMM sean un paso en la dirección correcta.
Ciamac Moallemi (Columbia): "Liquidity Provision and Automated Market Making"
Ciamac Moallemi (Columbia): "Liquidity Provision and Automated Market Making"
  • 2022.09.14
  • www.youtube.com
Abstract: In recent years, automated market makers (AMMs) and, more specifically, constant function market makers (CFMMs) such as Uniswap, have emerged as t...
 

Andreea Minca (Cornell ORIE): Agrupación de Redes Financieras Heterogéneas



Andreea Minca (Cornell ORIE): Agrupación de Redes Financieras Heterogéneas

La profesora Andreea Minca, reconocida experta en el campo de las redes financieras en Cornell ORIE, ha dedicado su investigación a explorar las complejidades de agrupar redes financieras heterogéneas. Ella presenta un término de regularización innovador para abordar los desafíos únicos que plantean estas redes, en particular la presencia de valores atípicos con patrones de conexión arbitrarios. Estos valores atípicos dificultan el rendimiento de los algoritmos de agrupamiento espectral y transforman el agrupamiento en un problema computacionalmente desafiante conocido como problema combinatorio NP-difícil.

Para identificar estos valores atípicos en función de sus patrones de conexión, Minca utiliza el modelo de bloques estocásticos y el modelo de bloques estocásticos corregidos en grado. Estos modelos ofrecen garantías teóricas para una recuperación precisa sin hacer suposiciones sobre los nodos atípicos, excepto para conocer sus números. La heterogeneidad inherente a las redes financieras complica aún más la detección de valores atípicos basados únicamente en los grados de los nodos.

Minca profundiza en el proceso de partición de la red en clústeres y valores atípicos mediante la construcción de una matriz de partición y una permutación de nodos. Ella ejemplifica este enfoque aplicándolo para analizar el sistema bancario coreano. Además, Minca emplea una muestra de Gibbs para llenar los vacíos en la red, lo que permite una asignación de riesgos eficiente y la diversificación de las inversiones mediante la agrupación de carteras superpuestas en función de su fuerza y nivel de superposición.

En su trabajo, Minca enfatiza la importancia de generar clústeres que muestren una interconectividad significativa en lugar de clústeres sin conectividad. Ella propone un enfoque que ofrece cinco alternativas para la diversificación bajo un marco de paridad de riesgo de clúster, destacando la necesidad de una consideración cuidadosa al usar algoritmos de agrupamiento para lograr la diversificación en las redes financieras. Minca aconseja cuantificar el desempeño de los algoritmos de agrupamiento utilizando categorías de inversión estándar y enfatiza la importancia de la toma de decisiones informada cuando se utilizan estas técnicas.

En general, la investigación de la profesora Andreea Minca proporciona información valiosa sobre las complejidades de agrupar redes financieras heterogéneas, ofreciendo enfoques innovadores y soluciones prácticas para abordar los desafíos asociados con estas redes. Su trabajo contribuye al avance del análisis de riesgos, la selección de carteras y la comprensión de la dinámica estructural de los sistemas financieros.

  • 00:00:00 La profesora Andreea Minca analiza su trabajo sobre el desarrollo de algoritmos para agrupar redes financieras basándose en dos ejemplos diferentes. El primer ejemplo es sobre redes de carteras superpuestas con aplicaciones en la selección de cartera, y el segundo ejemplo es sobre la red de exposiciones, que está relacionado con el análisis de riesgo sistémico y la comprensión del nivel de riesgo en la red. El objetivo es hacer coincidir los algoritmos de agrupamiento con las redes financieras y crear grupos significativos que sean vulnerables a la falta de liquidez o al incumplimiento en una institución. Cuanto más grandes sean los clústeres, mayor será el impacto potencial del estrés en un miembro de ese clúster, lo que destaca la importancia de comprender las estructuras de las redes financieras.

  • 00:05:00 Andreea Minca analiza los desafíos de agrupar redes financieras, que son comunes en todas las redes del mundo real. El problema de la agrupación existe porque los nodos tienden a formar grupos en los que la conectividad dentro del grupo es mayor que la conectividad entre grupos. Hay varios algoritmos de agrupamiento, pero la heterogeneidad de las redes financieras plantea un desafío, ya que las redes financieras exhiben heterogeneidad en términos de grados, pesos y diferente conectividad entre comunidades. Además, la presencia de valores atípicos dificulta la aplicación de algoritmos listos para usar, ya que pueden tener los mismos patrones de conexión que los nodos en línea, pero no pueden tratarse como un solo clúster. Varios problemas afectan la agrupación de redes financieras, lo que dificulta la aplicación de los algoritmos existentes.

  • 00:10:00 Andreea Minca de Cornell ORIE analiza los desafíos que se enfrentan al agrupar redes financieras heterogéneas y la introducción de un término de regularización novedoso para superarlos. Uno de los principales desafíos es la presencia de valores atípicos que tienen patrones de conexión arbitrarios y se comportan como adversarios, lo que dificulta el rendimiento de los algoritmos de agrupamiento como el agrupamiento espectral. El problema de agrupamiento en sí mismo es un problema combinatorio NP-difícil, que se puede relajar para un programa semidefinido que tiene algoritmos tratables. El objetivo es probar que se cumplen ciertas condiciones para la recuperación de los verdaderos clústeres, y el término de regularización introducido penaliza los valores atípicos con patrones de conexión inusuales.

  • 00:15:00 Andreea Minca analiza la aplicación del modelo de bloques estocásticos y el modelo de bloques estocásticos corregidos en grado para detectar patrones de agrupamiento en redes financieras heterogéneas. El objetivo es detectar valores atípicos en función de sus patrones de conexión. Las garantías teóricas proporcionadas aseguran una recuperación exacta sin hacer suposiciones sobre los nodos atípicos, excepto para conocer sus números. Las condiciones de brecha de densidad se basan en la diferencia entre la densidad de borde entre clústeres y dentro de los clústeres. Los resultados son más robustos que la literatura previa, ya que son independientes del número de valores atípicos y solo dependen del número de valores internos. La heterogeneidad en las redes financieras dificulta la detección de valores atípicos en función de los grados, ya que los nodos pueden tener grados altos debido a la estructura de los nodos en el mismo clúster.

  • 00:20:00 Andreea Minca explica el concepto de heterogeneidad en las redes financieras y cómo afecta a los algoritmos de agrupamiento. Utiliza el ejemplo del sistema bancario coreano para ilustrar cómo los bancos y las compañías de seguros en el mismo sector pueden mostrar heterogeneidad y no deben clasificarse como valores atípicos. Minca señala que la distribución de grados de cola pesada en las redes financieras requiere una mirada cuidadosa a los patrones de conectividad y las contribuciones a los límites del rango de grados de cada nodo. También enfatiza la necesidad de términos de penalización en el algoritmo que den cuenta del grado, ya que no se puede usar una penalización homogénea para todos los nodos. Finalmente, Minca describe los fundamentos del modelo de agrupación, que incluye la especificación de parámetros de heterogeneidad y matrices de conectividad para cada agrupación.

  • 00:25:00 Andreea Minca analiza los desafíos de la agrupación en clústeres en presencia de valores atípicos cuando se utilizan métodos de agrupación estándar. El objetivo de detectar valores atípicos es generar una alerta roja sin obstaculizar el agrupamiento en sí mismo o dificultar por error la clasificación de las notas en la capa. Al ajustar la conectividad a través de los parámetros de heterogeneidad, la matriz de adyacencia se puede escribir de manera que corresponda a la matriz de adyacencia del primer valor atípico para encontrar la matriz de permutación que mapea desde la imagen observada hasta la estructura subyacente de grupos y valores atípicos. Estos ajustes ayudan a acomodar muchas opciones de modelado en las redes financieras.

  • 00:30:00 En esta sección del video, Andreea Minca explica el proceso de encontrar una matriz de partición y permutación de nodos para identificar la estructura de clústeres y valores atípicos en redes financieras. El algoritmo se basa en encontrar una matriz de partición que indique qué nodos pertenecen al mismo clúster, mientras que las entradas arbitrarias representan valores atípicos. Para ilustrar el concepto, Minca muestra un ejemplo de una red financiera coreana, donde el objetivo del algoritmo es determinar la identificación correcta de cada sector presente en la red.

  • 00:35:00 Andreea Minca, profesora de Cornell ORIE, habla sobre su trabajo con la creación de redes semisintéticas y la prueba de algoritmos. Ella explica que crea una red basada en los datos publicados por el Banco de Corea sobre el tamaño de los activos y pasivos de todas las instituciones financieras y los conecta en función de un flujo agregado de cualquier compañía de seguros a cualquier banco. Luego utiliza un algoritmo de maximización de la modularidad para identificar qué instituciones financieras pertenecen a qué sector en función del patrón de conectividad observado. El algoritmo también introduce un parámetro de ajuste y una restricción de matriz de partición para minimizar la diferencia de modularidad.

  • 00:40:00 Andreea Minca explica el desafío de buscar matrices de partición en la agrupación de redes financieras heterogéneas, que es un problema intratable debido a una restricción específica. Para superar esto, se introduce una relajación del problema donde las entradas de la matriz están entre 0 y 1, y es semidefinida positiva. La heterogeneidad del problema se aborda a través de términos de penalización, donde una penalización en el término diagonal penaliza los valores atípicos potenciales cuyo grado está más allá de la variación normal. Dos parámetros de ajuste controlan la fuerza de la penalización diagonal y están determinados por el grado observado de los nodos, lo que permite la identificación de valores atípicos y aquellos con una fuerte pertenencia a la comunidad. El ejemplo de la industria coreana que se usa en el video es una instantánea de las exposiciones en la red coreana y no hay un componente de serie temporal.

  • 00:45:00 Andreea Minca de Cornell ORIE analiza la agrupación de redes financieras heterogéneas y cómo recrear redes de muestra que sean consistentes con los valores agregados mediante el uso de una muestra de Gibbs para llenar los vacíos. El rendimiento del algoritmo se puede probar a través de la tasa de clasificación errónea y la probabilidad de recuperación, que tiende a uno a cierta velocidad a medida que el tamaño de la muestra aumenta. Utilizando el sector coreano como ejemplo, Minca demuestra cómo la matriz de conectividad puede representar la probabilidad de conexión entre diferentes sectores y cómo se obtienen los resultados de la agrupación a partir de la matriz.

  • 00:50:00 Andreea Minca analiza el desafío de identificar el sector financiero correcto para cada institución en una red en función de sus patrones de conectividad. Ella explica que un algoritmo debe ser robusto a la heterogeneidad en la conectividad y que las tasas de clasificación errónea se utilizan como criterio de rendimiento. Minca compara las tasas de clasificación errónea del algoritmo que presentó y otros algoritmos existentes, destacando que el algoritmo basado en agrupamiento espectral es el de peor rendimiento. Esto enfatiza la necesidad de modificar los algoritmos existentes para tener en cuenta los problemas que encuentran las redes financieras. Adicionalmente, Minca toca brevemente las aplicaciones del algoritmo en la gestión de carteras de inversión. Al recrear una red de carteras superpuestas, las fortalezas de interacción de las instituciones se pueden medir en función de las tenencias de su cartera, y podría ayudar potencialmente en la toma de decisiones de inversión.

  • 00:55:00 Andreea Minca analiza el algoritmo de agrupación y cómo se puede aplicar a carteras financieras superpuestas para asignar riesgos de manera eficiente y diversificar las inversiones. Al agrupar carteras en función de su fuerza y nivel de superposición, el algoritmo puede recuperar cinco grupos que han crecido durante una década, lo que indica una mayor superposición. Esto proporciona una herramienta para generar clústeres que son más efectivos que otros métodos de agrupamiento existentes. Además, Minca analiza cómo un algoritmo adicional llena los vacíos del ejemplo coreano y crea redes individuales que son consistentes con los datos agregados del gobierno.

  • 01:00:00 Andreea Minca aborda el tema de lograr la diversificación a través de algoritmos de clustering para redes financieras. Ella muestra que tener un clúster con una conectividad entre clústeres extremadamente alta y otro sin conectividad no lograría la diversificación. En cambio, presenta un enfoque que identifica cinco alternativas para la diversificación bajo un enfoque de paridad de riesgo de clúster. También responde preguntas sobre la preimpresión de su trabajo, la disponibilidad de una herramienta y la sensibilidad del algoritmo a la cantidad de clústeres, al tiempo que sugiere el uso de categorías de inversión estándar para cuantificar el rendimiento de los algoritmos de agrupamiento.

  • 01:05:00 Andreea Minca discute el tema de los algoritmos de clustering y la recuperación de clusters, utilizando el ejemplo de recuperación de cinco clusters a partir de cinco estrategias de inversión. También señala que puede ser difícil comparar los resultados de agrupación de diferentes opciones sin un buen conocimiento del dominio o suposiciones sobre la cantidad de grupos. Sin embargo, no hay resultados teóricos al respecto, lo que destaca la importancia de tomar decisiones bien informadas cuando se utilizan algoritmos de agrupamiento.
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
Andreea Minca (Cornell ORIE): Clustering Heterogeneous Financial Networks
  • 2022.04.27
  • www.youtube.com
Abstract: For the degree corrected stochastic block model in the presence of arbitrary or even adversarial outliers, we develop a convex-optimization-based c...
Razón de la queja: