Negociação quantitativa - página 32

 

Two Sigma Apresenta Deep Learning para Sequências em Finanças Quantitativas David Kriegman


Two Sigma Apresenta Deep Learning para Sequências em Finanças Quantitativas David Kriegman

Durante a apresentação, o palestrante apresenta o evento e fornece informações básicas sobre a Two Sigma, uma renomada empresa de ciências financeiras que aplica métodos científicos à área de finanças. Eles destacam que a Two Sigma opera em vários negócios dentro do setor financeiro, incluindo fundos de hedge quantitativos, serviços de corretagem, investimentos privados, seguros e soluções para investidores. O palestrante enfatiza a diversidade de origens entre o público, indicando que a palestra atenderá a indivíduos em todos os níveis de especialização, mostrando como o aprendizado profundo pode ser aplicado de maneira eficaz em finanças quantitativas. Notavelmente, eles mencionam que o Two Sigma emprega aproximadamente 1.600 profissionais em todo o mundo, com 600 deles com diplomas avançados e mais de 200 com doutorado.

Seguindo em frente, o palestrante apresenta o conceito de aprendizagem profunda para sequências e ilustra seu impacto em várias aplicações na última década. Eles fornecem exemplos como classificação de sentimento, reconhecimento de atividade de vídeo e tradução automática. O palestrante explica que as tarefas de processamento de sequência envolvem tomar sequências como entrada e gerar sequências como saída, que podem variar em tamanho. Especificamente, eles discutem a aplicação do aprendizado profundo na previsão de valores do mercado de ações usando sequências históricas. O palestrante ressalta a importância de prever os pontos altos e baixos para maximizar a lucratividade.

Em seguida, o palestrante se aprofunda no típico pipeline de investimento quantitativo em finanças, que engloba uma sequência de processos envolvidos na tomada de decisões de investimento. Eles descrevem os dois estágios principais do pipeline: modelagem alfa e extração de recursos. A modelagem alfa envolve prever a direção dos preços das ações usando modelos de reversão à média ou modelos de momento. A extração de recursos concentra-se na extração de recursos técnicos do mercado, como preço, volume e spread de compra e venda. O palestrante enfatiza que esses processos acabam levando a decisões de compra ou venda nos mercados, com o objetivo final de gerar lucros e minimizar perdas. Eles enfatizam a importância de evitar a tomada de decisão emocional e destacam a importância de diversificar os portfólios no campo das finanças.

Posteriormente, David Kriegman, da Two Sigma, sobe ao palco para discutir os fatores que desempenham um papel crucial na tomada de decisões informadas na negociação de ações. O primeiro fator destacado é a coleta de dados fundamentais, que podem ser obtidos por meio de relatórios diretos das empresas ou inferidos a partir de informações disponíveis publicamente. Além disso, a análise de sentimentos pode ser realizada interpretando dados não estruturados derivados de fontes como notícias, mídias sociais e comentários de analistas. O palestrante apresenta a ideia de utilizar fontes não tradicionais, como o número de carros em um estacionamento ou o congestionamento de porta-contêineres em um porto, para coletar informações que possam indicar o desempenho de um determinado estoque. Depois de empregar o modelo alfa para fazer previsões sobre o desempenho das ações, a próxima etapa do pipeline envolve a otimização do portfólio. Essa etapa geralmente envolve a solução de problemas de otimização em larga escala e a consideração de fatores como estoque atual, confiança nas previsões, requisitos de diversificação e custos comerciais associados. Por fim, a fase de execução envolve a tomada de decisões sobre tamanho, colocação e tipo de pedido, com o auxílio de um modelo para entender o impacto potencial dessas ações.

Voltando ao tópico de aprendizado profundo, o palestrante destaca a natureza sequencial do pipeline de tomada de decisões financeiras quantitativas. Eles então mudam o foco para o aprendizado profundo, descrevendo-o como um tipo de rede neural caracterizada por múltiplas camadas. O palestrante discute desenvolvimentos significativos em redes neurais desde sua introdução inicial na década de 1950, incluindo o surgimento de novas arquiteturas de rede, a disponibilidade de conjuntos de dados de treinamento massivos e avanços na computação paralela. Para ilustrar a ideia básica por trás de um único perceptron, o palestrante explica como ele recebe entradas, calcula uma soma ponderada e passa o resultado por uma função não linear. Eles mencionam que a função de ativação tradicional, um limite, foi substituída por uma alternativa chamada unidade linear retificada (ReLU), que gera zero para valores abaixo de um limite e o valor real para valores superiores.

Continuando com o tópico de redes neurais, o palestrante apresenta o conceito de perceptron multicamadas. Nesta arquitetura, cada círculo representa um perceptron com sua própria função de ativação e conjunto de pesos. Isso pode ser representado por um par de matrizes de peso, permitindo a criação de redes maiores. O palestrante discute a aplicação de redes neurais para modelagem alfa, especificamente na previsão de preços de ações com base no desempenho histórico. A rede é treinada usando um conjunto de dados de treinamento que inclui recursos e dados de preços, com o objetivo de otimização de minimizar a perda total. Este processo de treinamento envolve várias técnicas, como backpropagation e gradiente descendente estocástico.

Para aprimorar ainda mais o modelo alfa, o palestrante explica a importância de incorporar vários recursos, em vez de depender de um único sinal, como preço ou histórico. Ao combinar todos os recursos relevantes, um modelo mais poderoso e preciso pode ser criado. No entanto, utilizar uma rede totalmente conectada com essa abordagem pode levar a um problema conhecido como maldição da dimensionalidade, pois o número de pesos se torna extremamente grande e nem todos podem ser efetivamente treinados. Para superar esse desafio, o palestrante apresenta outra classe de redes de processamento de sequência chamadas redes neurais recorrentes (RNNs). Essas redes introduzem um aspecto de memória e retroalimentam as informações, construindo um estado a cada instante de tempo. Como resultado, o problema de ter um número excessivo de pesos é mitigado. Nas RNNs, os pesos são compartilhados entre cada elemento, tornando a rede profunda e fornecendo uma solução tratável.

O palestrante destaca as dificuldades de treinar redes profundas e como as redes fechadas, como as unidades recorrentes fechadas (GRUs) e as redes de memória de curto prazo (LSTM), lidam com esses desafios. As redes fechadas incorporam portas analógicas que controlam o fluxo de informações e permitem a atualização de estados anteriores com novos estados potenciais. Os componentes dessas redes são diferenciáveis, permitindo que sejam treinados usando backpropagation. Em comparação com os LSTMs, os GRUs têm recursos de memória mais longos.

Discutindo várias arquiteturas usadas em aprendizado profundo para sequências, o palestrante apresenta redes LSTM e GRU, bem como desenvolvimentos mais recentes, como redes neurais convolucionais (CNNs), mecanismos de atenção e transformadores. Eles também abordam o aprendizado por reforço, que otimiza os processos sequenciais de tomada de decisão, como os envolvidos em negociações e interações de mercado. Embora o aprendizado por reforço tenha mostrado sucesso em jogos, aplicá-lo às finanças requer simuladores adequados, infraestrutura de software robusta e recursos computacionais significativos. No geral, o palestrante enfatiza que as diferentes arquiteturas e modelos discutidos representam ferramentas poderosas para finanças quantitativas, cada uma com suas próprias vantagens e desafios.

Voltando à contribuição de David Kriegman, ele lança luz sobre o pipeline empregado em finanças quantitativas e como redes neurais profundas podem ser treinadas para implementar diferentes partes dele. Ele destaca as extensas operações da Two Sigma, que envolvem a negociação de milhares de ações e a tomada de centenas de milhões de decisões todos os dias. A manipulação de quantidades tão grandes de dados requer poder computacional substancial, infraestrutura de software robusta e uma equipe de indivíduos criativos. Abordando preocupações sobre a falta de explicabilidade e interpretabilidade associadas a redes neurais profundas e seu impacto no desenvolvimento de estratégias, Kriegman explica que certas arquiteturas podem introduzir representações interpretáveis. Ele também enfatiza que em cenários de negociação em rápida mudança, diferentes distribuições são necessárias. Além disso, o Two Sigma incorpora comerciantes humanos que monitoram e implementam sistemas durante eventos extremos de mercado.

O palestrante discute como as abordagens de aprendizado profundo podem interagir com a hipótese de um mercado eficiente em finanças quantitativas. Embora o mercado seja geralmente considerado eficiente, o aprendizado profundo pode facilitar uma resposta mais rápida às informações e oferecer métodos alternativos de assimilação de dados, potencialmente identificando ineficiências e oportunidades de investimento. Eles também destacam a relevância das técnicas de visão computacional na modelagem sequencial em finanças, principalmente durante os estágios iniciais de extração de recursos de dados não estruturados. O Two Sigma busca ativamente indivíduos para funções de engenharia e modelagem e, embora diferentes funções se alinhem com diferentes equipes, a aplicação do aprendizado profundo permeia toda a organização. Recém-formados e candidatos a nível de mestrado são incentivados a se inscrever por meio do site da Two Sigma.

Durante a sessão de perguntas e respostas, o palestrante aborda vários desafios associados à aplicação do aprendizado profundo em finanças quantitativas. Um grande desafio é a falta de estacionariedade nas séries temporais financeiras, pois os modelos de aprendizado profundo funcionam melhor quando o futuro se assemelha ao passado. Para resolver esse problema, o palestrante enfatiza a importância de simular e prever para introduzir métodos de transferência de domínio, permitindo que os modelos se adaptem às mudanças nas condições do mercado. Além disso, o palestrante observa que a taxa de erro em finanças quantitativas geralmente é maior em comparação com outros campos, e mesmo sendo um pouco melhor que 50% pode fornecer uma vantagem significativa na negociação.

Quando questionado sobre implicações promissoras para finanças quantitativas, o palestrante menciona que quase todas as áreas de pesquisa em aprendizagem profunda e redes neurais possuem implicações promissoras. Eles destacam especificamente o aprendizado por reforço e a transferência de domínio como áreas de interesse. Além disso, eles reconhecem os desafios de armazenamento de dados em finanças e sugerem que as técnicas de compactação de dados podem ser úteis para resolver esses problemas.

Expandindo o tópico da equipe de engenharia responsável pela implementação de modelos de aprendizado profundo em finanças quantitativas, o palestrante explica que a equipe trabalha em várias tarefas, incluindo gerenciamento de armazenamento, sistemas físicos e as camadas construídas sobre esses sistemas. Eles enfatizam que tanto os modelos de aprendizado profundo quanto a modelagem estatística têm suas funções dependendo do caso de uso específico. No entanto, eles observam que, se um modelo profundo for reduzido a uma forma degenerada de regressão linear, ele perde seu interesse e poder intrínsecos.

A apresentação enfatiza a aplicação de aprendizado profundo em finanças quantitativas, particularmente no contexto de processamento de sequência e pipelines de tomada de decisão. Ele destaca os desafios e oportunidades que surgem ao utilizar redes neurais profundas neste domínio, incluindo a necessidade de interpretabilidade, abordando a não estacionariedade e alavancando diversas arquiteturas. Ao longo da apresentação, a Two Sigma é apresentada como uma empresa proeminente que incorpora ativamente técnicas de aprendizado profundo em suas operações e busca ativamente indivíduos talentosos para se juntar à sua equipe.

  • 00:00:00 O palestrante apresenta o evento e fornece informações sobre a Two Sigma, uma empresa de ciências financeiras que aplica métodos científicos às finanças. Eles explicam que a empresa atua em diversos negócios no setor financeiro, incluindo hedge funds quantitativos, corretora, investimento privado, seguros e soluções para investidores. Eles também falam sobre a diversidade de origens entre o público e enfatizam que sua palestra fornecerá algumas ideias em todos os níveis sobre como o aprendizado profundo pode ser aplicado em finanças quantitativas. Finalmente, eles mencionam que 1.600 pessoas trabalham na Two Sigma em todo o mundo, com 600 com pós-graduação e mais de 200 com doutorado.

  • 00:05:00 O palestrante apresenta o conceito de aprendizagem profunda para sequências e como isso afetou várias aplicações na última década, como classificação de sentimento, reconhecimento de atividade de vídeo e tradução automática. Ele explica que as tarefas de processamento de sequência recebem sequências como entrada e produzem sequências como saída, que podem ter comprimentos iguais ou diferentes. O palestrante também fala sobre como prever os valores do mercado de ações usando sequências passadas e destaca a importância de prever os pontos altos e baixos para ganhar mais dinheiro.

  • 00:10:00 O palestrante explica o pipeline de investimento quantitativo típico em finanças, envolvendo uma sequência de processos para tomar decisões de investimento. Isso inclui modelagem alfa, que prevê a direção dos preços das ações por meio de modelos de reversão à média ou modelos de momento, e extração de recursos, que envolve recursos técnicos como preço, volume e spread de compra e venda. O pipeline acaba levando a decisões de compra ou venda nos mercados, com o objetivo de não perder dinheiro e obter lucros. O palestrante enfatiza a importância de evitar decisões emocionais e diversificar portfólios em finanças.

  • 00:15:00 David Kriegman da Two Sigma apresenta os vários fatores a serem considerados ao tomar decisões na negociação de ações. A primeira é coletar dados fundamentais, que podem ser relatados diretamente pela empresa ou inferidos com base em informações disponíveis publicamente. Além disso, a análise de sentimentos pode ser feita interpretando dados não estruturados de fontes como notícias, mídias sociais e comentários de analistas. Fontes não tradicionais, como o número de carros em um estacionamento ou navios de contêineres em um porto, também podem fornecer informações sobre o desempenho de um determinado estoque. Depois de usar o modelo alfa para fazer previsões sobre o desempenho das ações, o próximo passo é otimizar o portfólio. Isso geralmente é tratado por meio de problemas de otimização em larga escala e requer a determinação de quanto estoque já existe, confiança nas previsões, quão diversificados devem ser os investimentos e os custos associados à realização das negociações. Por fim, a execução é a última etapa na qual são tomadas as decisões sobre tamanho, colocação e tipo de pedido, e um modelo é usado para entender o impacto das ações tomadas.

  • 00:20:00 O palestrante apresenta o pipeline de decisões de compra e venda em finanças quantitativas, incluindo extração de recursos, modelagem alfa e execução, e enfatiza a natureza sequencial do processo. O foco então muda para o aprendizado profundo, que é um tipo de rede neural caracterizada por um grande número de camadas. O palestrante explica as principais mudanças que aconteceram desde a primeira introdução de redes neurais na década de 1950, como novas arquiteturas de rede, grandes quantidades de dados de treinamento e computação paralela massiva. O palestrante então ilustra a ideia básica de um único perceptron, que recebe entradas e calcula uma soma ponderada antes de passar o resultado por uma função não linear. A função de ativação tradicional era um limite, mas foi substituída por uma alternativa chamada unidade linear retificada (ReLU), que gera zero para valores menores que um limite e o valor real caso contrário.

  • 00:25:00 O palestrante apresenta o conceito de um perceptron multicamadas, em que cada círculo representa um perceptron com sua própria função de ativação e conjunto de pesos. Isso pode ser representado por um par de matrizes de peso, permitindo a criação de redes maiores. Em seguida, o palestrante discute o uso de uma rede neural para modelagem alfa para prever o preço de uma ação, com base em seu desempenho passado. A rede é treinada usando um conjunto de dados de treinamento que inclui recursos e dados de preço, com o objetivo de otimização de minimizar a perda total. Isso é obtido por meio de uma coleção de técnicas de treinamento, como retropropagação e descida de gradiente estocástico.

  • 00:30:00 O palestrante discute como construir um modelo alfa usando vários recursos em vez de apenas um sinal, como preço ou histórico. Ao pegar todos os recursos relevantes e combiná-los, um modelo mais poderoso pode ser criado. No entanto, usar uma rede totalmente conectada com essa abordagem cria um problema, pois o número de pesos pode ser muito grande e nem todos podem ser treinados. Para resolver esse problema, o palestrante apresenta outra classe de redes de processamento de sequências, conhecidas como redes neurais recorrentes. Essas redes introduzem um aspecto de memória e retroalimentam as informações, construindo um estado a cada instante de tempo e, consequentemente, mitigando o problema de ter muitos pesos. Os pesos nessas redes são compartilhados entre cada elemento, tornando essa rede profunda e fornecendo uma solução tratável.

  • 00:35:00 O palestrante discute as dificuldades de treinar redes profundas e como redes fechadas, como GRUs e LSTMs, podem resolver esses problemas, permitindo que as informações se propaguem mais para trás no tempo. As redes fechadas usam portas analógicas para controlar quanta informação flui e atualizar o estado anterior com um novo estado potencial. Os componentes das redes fechadas são diferenciáveis e, portanto, treináveis via retropropagação. GRUs têm memória mais longa em comparação com LSTMs, que significa memória de longo prazo.

  • 00:40:00 O palestrante discute várias arquiteturas usadas em aprendizado profundo para sequências, incluindo redes LSTM e GRU, bem como desenvolvimentos mais recentes, como redes neurais convolucionais, mecanismos de atenção e transformadores. Eles também introduzem o aprendizado por reforço, que otimiza os processos sequenciais de tomada de decisão, como os envolvidos na negociação e na interação com o mercado. Embora o aprendizado por reforço tenha sido bem-sucedido em jogos, aplicá-lo às finanças requer um bom simulador, infraestrutura de software e muita computação. No geral, as diferentes arquiteturas e modelos discutidos representam ferramentas poderosas para finanças quantitativas, cada uma com suas próprias vantagens e desafios.

  • 00:45:00 David Kriegman discute o pipeline usado em finanças quantitativas e como redes neurais profundas podem ser treinadas para implementar partes dele. Ele menciona que a Two Sigma opera em larga escala, negociando milhares de ações e tomando centenas de milhões de decisões por dia. Para lidar com essa quantidade de dados, eles precisam de muita computação, boa infraestrutura de software e pessoas criativas. Quando questionado sobre a falta de explicabilidade e interpretabilidade associada às deep nets e como isso afeta o desenvolvimento da estratégia, Kriegman explica que algumas arquiteturas podem introduzir representações interpretáveis, e algumas decisões de negociação acontecem rapidamente e requerem distribuições diferentes. Além disso, o Two Sigma possui traders humanos que monitoram e implementam sistemas em eventos extremos de mercado.

  • 00:50:00 O palestrante discutiu como as abordagens de aprendizado profundo podem interagir com a hipótese de um mercado eficiente em finanças quantitativas. Embora o mercado seja geralmente eficiente, o aprendizado profundo pode ajudar a responder mais rapidamente às informações e assimilá-las de uma maneira diferente, potencialmente identificando ineficiências e oportunidades de investimento. Há também aspectos da visão computacional que podem ser relevantes para a modelagem sequencial em finanças, particularmente nos estágios iniciais de extração de recursos de informações não estruturadas. O Two Sigma recruta ativamente para funções de engenharia e modelagem e, embora funções diferentes sejam mapeadas para equipes diferentes, há aplicação definitiva de aprendizado profundo em toda a organização. Recém-formados e candidatos a nível de mestrado são incentivados a se inscrever por meio do site Two Sigma.

  • 00:55:00 O palestrante aborda questões sobre os desafios na aplicação de deep learning em finanças quantitativas. Especificamente, a falta de estacionaridade nas séries temporais financeiras representa um problema para o aprendizado profundo, que funciona melhor quando o futuro se parece muito com o passado. Para resolver isso, a extensão em que se pode simular, prever e introduzir métodos de transferência de domínio é crucial. Além disso, o palestrante observa que a taxa de erro neste campo é maior do que a maioria, e ser melhor que 50% pode dar uma vantagem na negociação. Quando perguntado sobre implicações promissoras para finanças quantitativas, o palestrante menciona que quase todas as áreas de pesquisa em aprendizado profundo e redes neurais têm implicações promissoras, especificamente aprendizado por reforço e transferência de domínio. Por fim, há problemas de armazenamento de dados que precisam ser resolvidos e as técnicas de compactação de dados são úteis nesse processo.

  • 01:00:00 O palestrante explica a natureza diversificada da equipe de engenharia responsável pela execução de modelos de aprendizado profundo para finanças quantitativas. A equipe trabalha em várias tarefas, incluindo armazenamento, sistemas físicos e as camadas que ficam sobre esses sistemas físicos. Além disso, quando se trata de modelos de aprendizado profundo versus modelagem estatística, ambos têm papéis a desempenhar dependendo do uso e, se um modelo profundo for transformado em uma forma degenerada de uma regressão linear, não será mais interessante.
 

Two Sigma Presents: modelos de aprendizado de máquina de dados financeiros


Two Sigma Presents: modelos de aprendizado de máquina de dados financeiros

Justin Ceriano, da Two Sigma Securities, faz uma apresentação abrangente sobre a integração de modelos de aprendizado de máquina no campo financeiro. Ele começa destacando o crescente interesse das empresas financeiras em alavancar o aprendizado de máquina para aprimorar suas capacidades preditivas e processos de tomada de decisão. Especificamente, algoritmos de aprendizado de máquina podem ser utilizados para prever preços futuros de instrumentos financeiros e determinar estratégias de negociação ideais.

Ceriano introduz o conceito de aprendizado por reforço, que se enquadra em uma classe de métodos capazes de aprender políticas de decisão diretamente dos dados disponíveis para maximizar uma função objetivo apropriada. O aprendizado por reforço se mostra particularmente valioso em finanças, onde o objetivo é otimizar os resultados com base em dados históricos.

Um dos aspectos fundamentais discutidos é a aplicação de modelos de aprendizado de máquina para analisar livros de ordens limitadas em mercados eletrônicos. Nesse sistema, compradores e vendedores enviam ordens especificando os preços pelos quais estão dispostos a comprar ou vender um determinado ativo. Essas ordens são combinadas com base no melhor preço de compra ou venda disponível. Ceriano enfatiza que os dados do livro de pedidos, que representam a oferta e a demanda visíveis de um estoque, formam uma sequência de alta dimensão que pode ser utilizada com eficiência para prever mudanças futuras de preço usando modelos de aprendizado de máquina.

Além disso, Ceriano enfatiza a importância de considerar spreads diferentes de zero nas estratégias de negociação. Esses spreads podem afetar a lucratividade das previsões de preços, exigindo, portanto, avaliação e ajuste cuidadosos.

Para demonstrar a implementação prática de modelos de aprendizado de máquina, Ceriano explica a construção de uma rede neural recorrente projetada para prever mudanças de preço usando dados financeiros de alta frequência. O modelo é treinado para prever se a próxima mudança de preço será positiva ou negativa, e seu desempenho é comparado a um modelo recorrente linear. O conjunto de dados empregado consiste em três anos de dados de alta frequência evento a evento para aproximadamente 1.000 ações. O objetivo é avaliar se os modelos de aprendizado de máquina não lineares, como redes recorrentes, superam os modelos estatísticos lineares na captura de relacionamentos não lineares nos dados. A optimização das previsões dos modelos é conseguida através do algoritmo de retropropagação, minimizando o erro de previsão. Para reduzir os custos computacionais, o algoritmo de retropropagação truncada através do tempo é utilizado.

Os desafios relacionados à otimização de redes recorrentes, particularmente o conhecido problema do gradiente de fuga, são abordados na apresentação. O problema do gradiente evanescente refere-se ao fato de os gradientes se tornarem extremamente pequenos à medida que se propagam pelas camadas inferiores da rede. Consequentemente, isso pode prejudicar a velocidade de treinamento e dificultar a rede de reter informações de partes distantes da sequência. Ceriano apresenta a rede Long Short-Term Memory (LSTM), um dos tipos mais populares de redes recorrentes, que foi projetada especificamente para resolver esse problema, atualizando com eficiência o estado da memória, permitindo assim que o modelo retenha informações relevantes de longe. o passado.

A apresentação prossegue para discutir o treinamento e a avaliação de modelos de aprendizado de máquina usando dados de carteira de pedidos de alta frequência. Os autores comparam a precisão de um modelo linear com a de uma rede recorrente LSTM, e os resultados indicam claramente o desempenho superior do modelo de aprendizado profundo quando testado em cerca de 500 ações em um período de três meses fora da amostra. A discussão também investiga a natureza universal da relação entre os dados do livro de ofertas e os movimentos de preços, sugerindo a existência de um modelo universal de formação de preços aplicável a várias ações. Essa descoberta tem implicações práticas significativas, como a redução de custos computacionais e a capacidade de melhorar um modelo para uma ação usando dados de outra.

O experimento visa treinar um modelo universal agrupando dados de várias ações e avaliando sua precisão em comparação com modelos específicos de ações. Os resultados demonstram consistentemente a superioridade do modelo universal, indicando universalidade compartilhada na dinâmica do livro de pedidos em diferentes ações. Isso não apenas reduz o overfitting, mas também aumenta a precisão do modelo. Além disso, o modelo universal apresenta estabilidade por mais de um ano e escalabilidade com o auxílio de computação de alto desempenho, utilizando 25 GPUs com gradiente descendente estocástico assíncrono.

A apresentação também explora a aplicação do aprendizado por reforço para otimizar as estratégias de envio de pedidos para uma execução ideal. O foco está no desenvolvimento de políticas para ordens de mercado ou ordens limitadas de uma ação, visando maximizar as recompensas esperadas e economia de custos em intervalos de tempo discretos. Utilizando dados históricos do livro de pedidos, o modelo de aprendizado por reforço é treinado para simular preços executados para pedidos pequenos. O modelo determina se deve enviar uma ordem de mercado imediatamente ou esperar que o melhor preço de venda diminua, usando os dados do livro de ordens limitadas como entrada. O desempenho do modelo é avaliado usando um ano de dados e depois testado em um conjunto de dados separado de seis meses.

Os resultados da simulação em um universo de 100 ações são apresentados, considerando horizontes de tempo de 10 e 60 segundos, tanto para uma estratégia de aprendizado por reforço apenas de ordem de mercado quanto para uma estratégia de ordem limite simples. Os resultados indicam consistentemente economias de custo positivas alcançadas pelo modelo de aprendizado por reforço nas 50 ações, embora com alguma variabilidade. Além disso, a economia de custos tende a aumentar com horizontes de tempo mais longos. A apresentação apresenta o conceito de usar dados históricos do livro de ordens para simular se uma ordem de limite enviada será executada dentro de um intervalo de tempo específico. O modelo de aprendizado por reforço é treinado para selecionar dinamicamente o tempo ideal para maximizar a economia de custos esperada. Embora as economias de custos variem entre diferentes ações, a estratégia de aprendizado por reforço produz consistentemente resultados positivos, com algumas ações exibindo economias de custos significativamente maiores do que outras.

A apresentação conclui abordando a necessidade de desenvolver métodos avançados de otimização e arquiteturas de aprendizagem profunda especificamente adaptadas para dados financeiros. Ele enfatiza os desafios contínuos na fusão do aprendizado por reforço com simulações precisas para tamanhos de pedidos maiores para aprimorar ainda mais a aplicação do aprendizado de máquina em finanças. Para compreender efetivamente os conceitos discutidos, Ceriano recomenda ganhar experiência prática implementando técnicas de aprendizado de máquina em conjuntos de dados de grande escala. Ele destaca a importância de entender a teoria matemática subjacente e ter proficiência em bibliotecas de aprendizado profundo, como TensorFlow e PyTorch. Além disso, são enfatizadas as habilidades de computação de alto desempenho para paralelizar o treinamento do modelo.

Além disso, os apresentadores discutem as políticas de contratação e as oportunidades de trabalho remoto do Two Sigma. Embora não exista uma política de trabalho remoto em tempo integral, a Two Sigma contrata pessoas de vários países do mundo e opera uma equipe online chamada Alpha Studio para trabalho remoto. Eles enfatizam a importância de adquirir conhecimento em finanças quantitativas, probabilidade e estatística por meio de vários cursos para os interessados em buscar aprendizado de máquina em finanças. A apresentação também menciona a utilização de bibliotecas de aprendizado profundo, como TensorFlow e PyTorch na base de código do Two Sigma.

O processo de contratação na Two Sigma é discutido, com ênfase no recrutamento que ocorre ao longo do ano, principalmente durante o verão. Exceções são feitas para contratações de outono e primavera, e a empresa incentiva os interessados a começar o mais cedo possível, mesmo que isso signifique começar em dezembro. Os apresentadores sugerem que projetos impressionantes envolvem a identificação de padrões e tendências em dados reais e a aplicação de abordagens de aprendizado de máquina para resolver problemas do mundo real. A propriedade do projeto e o destaque de suas contribuições dentro do projeto são enfatizadas como qualidades valiosas procuradas pelos recrutadores. A equipe de pesquisa de capital fundamental da Two Sigma, que colabora estreitamente com engenheiros e cientistas de dados, também é mencionada brevemente.

A distinção entre um cientista de dados e um pesquisador quant em Two Sigma é elucidada. Embora ambas as posições envolvam modelagem e negociação, a ciência de dados se concentra principalmente no aspecto da ciência de dados e na engenharia de recursos, enquanto os pesquisadores da quant consideram o processo de negociação completo do início ao fim. Os apresentadores abordam a cultura do escritório e as reuniões no Two Sigma, descrevendo as reuniões como principalmente informais e oferecendo quadros brancos para discussões colaborativas. Apresentações preparadas são ocasionalmente necessárias para reuniões específicas.

Finalmente, são destacados os benefícios de empregar um modelo universal versus modelos específicos de estoque. A capacidade do modelo universal de alavancar o aprendizado de transferência e mitigar problemas de overfitting é enfatizada como uma vantagem importante. A apresentação termina mencionando que a sessão gravada será disponibilizada no canal da Two Sigma no YouTube e destacando as práticas globais de contratação da empresa, com a maioria das contratações sendo nos Estados Unidos.

  • 00:00:00 Justin Ceriano da Two Sigma Securities apresenta o conceito de modelos de aprendizado de máquina em finanças. Ele explica como as empresas financeiras estão interessadas em usar o aprendizado de máquina para fazer previsões e decisões, como prever o preço futuro de um instrumento financeiro e determinar uma estratégia de negociação ideal. Ceriano aponta que o aprendizado por reforço é uma classe de métodos, que pode aprender políticas de decisão diretamente dos dados com o objetivo de maximizar uma função objetivo apropriada. Ele conclui discutindo os desafios do overfitting com dados insuficientes, os benefícios dos modelos de aprendizado profundo e a importância da computação de alto desempenho para treinar grandes modelos em conjuntos de dados financeiros de alta frequência.

  • 00:05:00 É introduzido o conceito de livros de ordens limitadas em mercados eletrônicos, onde compradores e vendedores apresentam ordens a preços que desejam comprar ou vender, e são casadas de acordo com o melhor preço de compra ou venda. A oferta e a demanda visíveis de um estoque são representadas por meio de dados do livro de pedidos e é uma sequência de alta dimensão usada para prever mudanças futuras de preço usando modelos de aprendizado de máquina. Também é importante considerar spreads diferentes de zero nas estratégias de negociação, o que pode tornar as previsões de preços menos lucrativas.

  • 00:10:00 Uma rede neural recorrente é implementada para prever mudanças de preços em dados financeiros de alta frequência. O modelo irá prever se a próxima mudança de preço é positiva ou negativa, e os resultados serão comparados com um modelo recorrente linear. O conjunto de dados consiste em três anos de eventos de dados de alta frequência para aproximadamente 1.000 ações. O desempenho do modelo de aprendizado profundo será avaliado para determinar se os modelos de aprendizado de máquina não lineares, como redes recorrentes, podem superar os modelos estatísticos lineares no aprendizado de relacionamentos não lineares nos dados. O algoritmo de retropropagação será usado para otimizar a função objetivo para minimizar o erro das previsões. A retropropagação truncada através do algoritmo de tempo é usada para reduzir os custos computacionais.

  • 00:15:00 O vídeo discute como otimizar redes recorrentes, que é semelhante em espírito à otimização de uma rede feed-forward de várias camadas. No entanto, o problema do gradiente de fuga é um desafio bem conhecido, onde a magnitude do gradiente é pequena em relação às camadas inferiores da rede. Isso pode tornar o treinamento lento, desafiador para treinar as redes para lembrar dados de muito no passado e levar a uma descida de gradiente estocástico para convergir lentamente. A transcrição também apresenta a rede LSTM como um dos tipos mais populares de redes recorrentes, projetada para atualizar o estado da memória de forma eficiente com o objetivo de ajudar o modelo a lembrar dados de um passado distante na sequência.

  • 00:20:00 Os autores descrevem como treinaram uma série de modelos de aprendizado de máquina em dados de carteira de pedidos de alta frequência e avaliaram seu desempenho em um conjunto de dados de teste. Os autores compararam a precisão do modelo linear com a rede recorrente LSTM e descobriram que o modelo de aprendizado profundo supera claramente o modelo linear em um conjunto de dados de teste de aproximadamente 500 ações durante um período de teste fora da amostra de três meses. Eles examinam a questão de saber se a relação entre os dados do livro de pedidos e os movimentos de preços é universal entre as ações ou se as ações individuais precisam de seu próprio modelo e encontram fortes evidências de um modelo universal de formação de preços mapeando o fluxo de pedidos para mudanças de preços. Eles também discutem as implicações práticas dessa descoberta, incluindo custos computacionais mais baixos e a capacidade de melhorar o modelo de uma ação usando dados de outra.

  • 00:25:00 O experimento visa treinar um modelo universal agrupando dados de centenas de ações e comparando sua precisão com modelos específicos de ações. O resultado mostra que o modelo universal supera consistentemente os modelos específicos de ações, indicando universalidade compartilhada na dinâmica do livro de pedidos de diferentes ações. Isso permite a redução do overfitting e a melhoria da precisão do modelo. Além disso, o modelo universal é capaz de generalizar para novos estoques, demonstrando estabilidade do modelo por mais de um ano e escalabilidade do modelo com o auxílio de computação de alto desempenho usando 25 GPUs com descida de gradiente estocástico assíncrono. O segundo exemplo apresentado nesta seção é a execução ótima em que o aprendizado por reforço é usado para desenvolver estratégias de envio de pedidos. No entanto, a política ótima para um processo de decisão de markov é desafiadora devido à probabilidade de transição desconhecida.

  • 00:30:00 O vídeo discute como o aprendizado por reforço pode ser usado para aprender políticas ideais para um exemplo simples de execução de ordem. O modelo de aprendizado por reforço é treinado para simular com precisão o preço executado para um pedido pequeno usando dados históricos do livro de pedidos. O foco está na execução ótima de uma ordem de mercado ou de uma ordem limitada de uma ação, com o objetivo de maximizar a recompensa esperada e a economia de custos para cada tempo discreto até o horizonte de tempo. O modelo de aprendizado por reforço seleciona se deseja enviar a ordem de mercado ou esperar que o melhor preço de venda diminua, com a entrada sendo os dados do livro de pedidos limite e o modelo sendo avaliado em um ano de dados e depois testado em seis meses de dados.

  • 00:35:00 O vídeo apresenta os resultados da simulação em todo o universo de 100 ações com horizontes de tempo de 10 e 60 segundos para estratégia de aprendizado de reforço de ordem de mercado apenas e estratégia de ordem de limite simples. Os resultados mostram que o modelo de aprendizado por reforço fornece consistentemente uma economia positiva de custos, embora com variabilidade significativa, nas 50 ações. As economias de custo aumentam em geral, dado um horizonte de tempo mais longo. O vídeo também apresenta o uso dos dados históricos do livro de pedidos para simular se o pedido de limite enviado para uma ação será ou não executado no intervalo de tempo e treinar o modelo de aprendizado por reforço para selecionar de forma adaptativa o tempo para maximizar a economia de custos esperada. Os resultados mostram que a estratégia de aprendizado por reforço fornece consistentemente uma economia de custos positiva, embora a economia de custos varie para algumas ações, enquanto é relativamente grande para outras.

  • 00:40:00 O vídeo destaca a necessidade de desenvolver melhores métodos de otimização e arquiteturas de aprendizado profundo especificamente projetadas para dados financeiros. Existem desafios em aberto que ainda precisam ser resolvidos, como mesclar o aprendizado por reforço com simulações precisas para tamanhos de pedidos maiores para aplicar o aprendizado de máquina aos dados financeiros. Justin recomenda que a melhor maneira de aprender aprendizado de máquina é implementá-lo em primeira mão em conjuntos de dados de grande escala e entender a teoria matemática por trás dele. É essencial ter experiência em bibliotecas de deep learning como PiTorch ou TensorFlow e computação de alto desempenho para paralelizar o treinamento de modelos para aplicar machine learning a dados financeiros. Por fim, a gravação da sessão estará disponível em seu canal no YouTube, e a Two Sigma contrata globalmente com a maioria de suas contratações nos Estados Unidos.

  • 00:45:00 Representantes da Two Sigma falam sobre suas políticas de contratação e trabalho remoto. Embora não tenham uma política de trabalho remoto em tempo integral, eles contratam pessoas de diferentes países do mundo e têm uma equipe online chamada Alpha Studio para trabalho remoto. Eles também discutem a importância de fazer vários cursos em finanças quantitativas, probabilidade e estatística para os interessados em aprendizado de máquina neste campo. Por fim, os apresentadores revelam que seu código apresenta as bibliotecas de aprendizado profundo TensorFlow e PyTorch.

  • 00:50:00 Os palestrantes discutem o processo de contratação na Two Sigma e as diferentes épocas do ano em que contratam, com foco no verão, mas também abrindo exceções para o outono e a primavera. Eles também mencionam que contratam de forma contínua e incentivam as pessoas a começar o mais rápido possível, mesmo que isso signifique começar em dezembro. Em termos de projetos que seriam interessantes para os recrutadores, eles sugerem encontrar padrões e tendências em dados reais e aplicar abordagens de aprendizado de máquina a problemas do mundo real, com foco na propriedade do projeto e destacando o que o indivíduo possui no projeto em que trabalhou sobre. Os palestrantes também mencionam a equipe de pesquisa de patrimônio fundamental da Two Sigma, que trabalha em estreita colaboração com os engenheiros, cientistas de dados e outras áreas de negócios da empresa. Por fim, eles abordam uma questão sobre o uso do aprendizado por reforço para otimizar as execuções de negociação automatizadas.

  • 00:55:00 O palestrante discute a diferença entre um cientista de dados e um pesquisador quantitativo no Two Sigma. Embora ambas as posições envolvam modelagem e negociação, a ciência de dados se concentra no aspecto da ciência de dados e na engenharia de recursos, enquanto a pesquisa quantitativa considera o quadro completo da negociação do início ao fim. O palestrante também responde a uma pergunta sobre a cultura do escritório e as reuniões no Two Sigma, explicando que, embora haja reuniões ocasionais que exijam apresentações preparadas, as reuniões são mais casuais com quadros brancos disponíveis para discussões. Por fim, o palestrante discute as vantagens de um modelo universal versus um modelo específico de estoque, citando o aprendizado de transferência e o potencial para problemas de superajuste como razões pelas quais um único modelo universal treinado em um conjunto de dados combinado pode superar os modelos especializados.
 

Chaves para o sucesso na negociação algorítmica | Podcast | Dr. EP Chan


Chaves para o sucesso na negociação algorítmica | Podcast | Dr. EP Chan

O comércio quantitativo, ou o comércio em geral, é considerado uma das profissões mais desafiadoras para entrar e ter sucesso. O Dr. DE Shaw, pioneiro no comércio quantitativo e fundador de um fundo de hedge multibilionário em Nova York, reconheceu que o campo tornou-se cada vez mais desafiador a cada ano que passa. Esse sentimento é repetido por muitos traders experientes do setor.

Apesar de sua dificuldade, a negociação quantitativa ainda vale a pena para aqueles que são apaixonados por ela. Assim como se tornar um ator, cantor, modelo ou escritor de ficção de sucesso, alcançar o sucesso na negociação algorítmica requer dedicação e perseverança. Embora nem todos possam atingir o nível de traders renomados como DE Shaw ou Renaissance Technologies, os aspirantes a traders não devem ser desencorajados. É importante estar preparado para o fracasso, pois o sucesso neste campo é um valor discrepante.

Para indivíduos que ainda não estão no setor financeiro, é aconselhável não largar o emprego imediatamente após se formar e iniciar sua primeira estratégia de negociação. Recomenda-se ter pelo menos duas estratégias de negociação lucrativas em execução por um período de dois anos antes de considerar a negociação em tempo integral. Este conselho é baseado na experiência pessoal e nas experiências de outros traders de sucesso.

Os comerciantes muitas vezes cometem o erro de serem excessivamente otimistas sobre o desempenho passado de uma estratégia, levando-os a uma alavancagem muito alta. É crucial evitar alavancagem excessiva, pois pode acabar rapidamente com o patrimônio de uma conta. Além disso, o desempenho da estratégia geralmente não segue a tendência da mesma maneira. Alocar capital com base apenas no desempenho passado é um erro comum. Em vez disso, uma alocação de paridade de risco, em que o capital é alocado inversamente proporcional à volatilidade de uma estratégia, geralmente é uma abordagem melhor.

Outro erro comum é deixar de investir os lucros em equipamentos de dados e pessoal durante os bons tempos. É essencial reinvestir uma parte dos lucros para melhorar a infraestrutura de dados e contratar pessoal qualificado, pois isso pode ajudar a evitar futuros saques.

Em uma nota positiva, recomenda-se começar com estratégias simples que tenham justificativa intuitiva. É aconselhável entender e melhorar as estratégias existentes antes de mergulhar em abordagens mais complexas, como redes neurais recorrentes ou aprendizado profundo. Ao começar com estratégias simples, os traders podem entender melhor as razões por trás dos sucessos ou fracassos, atribuindo-os a fatores específicos.

Em conclusão, a negociação quantitativa é uma profissão desafiadora, mas potencialmente recompensadora. Requer perseverança, aprendizado contínuo e tomada de decisão cuidadosa. Embora existam armadilhas a serem evitadas, também há lições valiosas a serem aprendidas com traders experientes. Começando com estratégias simples, gerenciando riscos e investindo em infraestrutura e pessoal, aspirantes a traders podem aumentar suas chances de sucesso no campo da negociação quantitativa.

 

"Arbitragem estatística básica: entendendo a matemática por trás da negociação de pares" por Max Margenot


"Arbitragem estatística básica: entendendo a matemática por trás da negociação de pares" por Max Margenot

Bem-vindo ao Quanto Peon Algorithmic Trading Meetup, um evento dedicado a explorar o mundo das finanças quantitativas. Sou Max Margit, cientista de dados da Quanto Peon, e hoje vou me aprofundar no fascinante tópico da arbitragem estatística e nos conceitos estatísticos fundamentais associados a ela.

Antes de mergulharmos nos aspectos teóricos, deixe-me fornecer uma breve introdução ao Quanto Peon. Nosso principal objetivo é tornar o financiamento quantitativo acessível a todos, oferecendo ferramentas gratuitas de código aberto que capacitam os indivíduos a pesquisar e desenvolver suas próprias estratégias de negociação algorítmica. A negociação algorítmica envolve o uso de instruções para executar negociações automaticamente nos mercados financeiros, variando de regras simples, como comprar ações da Apple todos os dias às 10h, até análises quantitativas mais sofisticadas usando modelos estatísticos.

A arbitragem estatística, o foco da discussão de hoje, gira em torno da exploração de ineficiências de mercado usando análise estatística em vez de depender de desequilíbrios físicos. Esta abordagem visa identificar e capitalizar os desequilíbrios estatísticos nos preços dos ativos. Para compreender melhor este conceito, é crucial entender alguns conceitos estatísticos fundamentais.

Um dos principais conceitos que exploraremos é a estacionariedade, particularmente no contexto de dados de séries temporais. A estacionaridade refere-se a uma série de pontos de dados em que cada amostra é extraída da mesma distribuição de probabilidade com parâmetros consistentes ao longo do tempo. Em termos mais simples, significa que a média e o desvio padrão dos dados permanecem constantes ao longo do tempo. Isso é importante porque muitos modelos estatísticos usados em finanças assumem estacionaridade. Ao garantir a estacionaridade, podemos confiar nos resultados obtidos desses modelos.

Para ilustrar o conceito de estacionaridade, vamos gerar alguns pontos de dados. Usarei uma função básica chamada "generate_data_point" para criar um conjunto de amostras de uma distribuição normal padrão. Essas amostras representam uma série temporal estacionária, geralmente chamada de ruído branco. Nesse caso, a média é zero e o desvio padrão é um. Quando plotamos esses dados, observamos um padrão aleatório semelhante ao ruído branco.

No entanto, nem todos os dados de séries temporais exibem estacionariedade. Se introduzirmos uma tendência na média, a série temporal torna-se não estacionária. Em finanças, a não estacionariedade pode ser muito mais complexa do que este simples exemplo. As estatísticas descritivas, como a média, tornam-se sem sentido para dados não estacionários, pois não representam com precisão toda a série temporal.

Agora, como determinamos se uma série temporal é estacionária ou não? É aqui que os testes de hipóteses entram em ação, como o teste Dickey-Fuller aumentado comumente usado na análise de estacionariedade. Este teste nos ajuda a avaliar a probabilidade de uma determinada série temporal ser não estacionária.

Vamos aplicar o teste Dickey-Fuller aumentado aos nossos dados de série temporal gerados. O teste fornece um valor-p, que indica a probabilidade de rejeição da hipótese nula de que a série temporal é não estacionária. Em nosso primeiro exemplo, onde os dados foram gerados deliberadamente como estacionários, o valor-p é próximo de zero. Isso nos permite rejeitar a hipótese nula e concluir que a série temporal é provavelmente estacionária. Por outro lado, no segundo exemplo com a tendência introduzida, o valor-p excede o limite (0,01) e falhamos em rejeitar a hipótese nula, indicando que a série temporal provavelmente não é estacionária.

No entanto, é importante observar que os testes de hipóteses têm limitações. Podem ocorrer falsos positivos, especialmente ao lidar com relacionamentos sutis ou complexos em dados financeiros. Portanto, é essencial ter cautela e não confiar apenas em testes de hipóteses para determinar a estacionariedade.

Agora, vamos mudar nosso foco para negociação de pares. Se eu quiser negociar em pares, preciso considerar vários pares e fazer apostas independentes em cada um deles. Em vez de confiar em um único par, diversificar meu portfólio negociando 100, 200 ou até 300 pares me permite alavancar qualquer vantagem que possa ter em cada par, aumentando assim minhas chances gerais de sucesso.

Os pares de negociação requerem uma estrutura robusta para gerenciar e monitorar as negociações de forma eficaz. Isso envolve atualizar continuamente o relacionamento entre os pares e ajustar as posições de acordo. Como os valores beta, que representam a relação entre os pares, podem mudar com o tempo, preciso de um sistema que se adapte dinamicamente a essas mudanças.

Além disso, é crucial ter uma estratégia de saída clara para cada negociação. Devo determinar quando fechar uma posição se o par não estiver mais exibindo o comportamento esperado ou se o relacionamento entre os pares for rompido. Isso requer monitoramento constante do spread e critérios predefinidos para sair de uma negociação.

Além disso, o gerenciamento de risco desempenha um papel significativo na negociação de pares. É essencial calcular cuidadosamente os tamanhos das posições para cada par com base em fatores como volatilidade, correlação e exposição geral do portfólio. Ao diversificar meus negócios e gerenciar o risco de forma eficaz, posso minimizar o impacto das condições adversas do mercado e maximizar os lucros potenciais.

Para implementar estratégias de negociação de pares de forma eficaz, os comerciantes geralmente contam com técnicas quantitativas avançadas e desenvolvem algoritmos sofisticados. Esses algoritmos examinam automaticamente o mercado em busca de pares em potencial, avaliam sua cointegração e propriedades estatísticas e geram sinais de negociação com base em critérios predefinidos.

Concluindo, entender a estacionaridade e realizar testes apropriados são cruciais ao construir modelos estatísticos para negociação algorítmica. Ao compreender o conceito de estacionariedade e usar testes como o teste Dickey-Fuller aumentado, os traders podem avaliar a probabilidade de não estacionaridade em dados de séries temporais. A negociação de pares, como uma estratégia de arbitragem estatística, permite que os traders explorem desvios temporários da relação histórica entre dois títulos correlacionados. No entanto, a implementação bem-sucedida requer estruturas robustas, monitoramento contínuo, gerenciamento de riscos e o uso de técnicas quantitativas avançadas.

No Quanto Peon, nos esforçamos para preencher a lacuna entre finanças e tecnologia, oferecendo palestras gratuitas sobre estatística e finanças por meio de nossa série de palestras Quanto Peon. Nossa missão é democratizar o financiamento quantitativo e fornecer aos indivíduos as ferramentas e o conhecimento para desenvolver suas estratégias de negociação algorítmica.

 

Movimento browniano para matemática financeira | Movimento Browniano para Quants | cálculo estocástico


Movimento browniano para matemática financeira | Movimento Browniano para Quants | cálculo estocástico

Olá, YouTube, e bem-vindo de volta ao canal ASX Portfolio. Meu nome é Jonathan, e hoje vamos mergulhar no fascinante mundo do movimento browniano, especificamente no contexto da matemática financeira. Este é um tópico crucial, pois forma a base dos processos estocásticos e do cálculo estocástico, essenciais no campo da matemática financeira. O movimento browniano é a base das integrais de Ito e possui grande significado, portanto, entendê-lo é de extrema importância. Em vídeos futuros, exploraremos mais a matemática, abordando tópicos como movimento browniano geométrico, suas aplicações e integrais de Ito. Certifique-se de clicar no botão de inscrição se quiser ficar atento aos próximos vídeos.

Neste vídeo, vamos percorrer um notebook Jupyter que preparei para explicar o que é o movimento browniano e como ele surge. Então, vamos direto ao assunto. Começaremos considerando um passeio aleatório simétrico e depois passaremos para um passeio aleatório escalonado, demonstrando como eles convergem para o movimento browniano. Ao longo desta explicação, usaremos notação e exemplos do livro de Steven Shreve, "Stochastic Calculus for Finance II".

Em primeiro lugar, é fundamental entender que as principais propriedades do movimento browniano são as seguintes: é um martingale, ou seja, a expectativa é baseada exclusivamente na posição atual da partícula ou preço da ação. Além disso, é um processo de Markov e acumula variação quadrática. A variação quadrática é um conceito único no cálculo estocástico, diferenciando-o do cálculo comum. Neste episódio, vamos nos aprofundar no que a variação quadrática implica.

Se você quiser acompanhar o código, ele está disponível no meu site. Eu importei as dependências necessárias que precisaremos para esta demonstração. É importante observar que o movimento browniano é um processo estocástico e, para nossos propósitos, consideraremos um espaço de probabilidade filtrado com resultados e uma filtragem F, juntamente com um espaço de probabilidade P. Aqui, temos um conjunto de resultados reais dentro do intervalo de 0 ao tempo T.

O movimento browniano sempre tem um valor inicial de zero. Tem incrementos independentes, segue uma distribuição gaussiana e exibe caminhos de amostra contínuos quase certamente. Explicaremos todas essas propriedades em detalhes.

Vamos começar com o exemplo mais simples: um passeio aleatório simétrico. Se você não estiver familiarizado com o conceito de passeio aleatório, pense nele como uma sequência de lançamentos sucessivos de uma moeda. Cada resultado, representado pela variável ômega, pode ser cara ou coroa. Usaremos a variável X_j para representar cada resultado, assumindo o valor 1 para cara e -1 para coroa.

Se definirmos um processo com m_0 igual a zero, então m_k será a soma ao longo de todos os caminhos possíveis de lançamento de moeda para k lançamentos. Neste caso, temos um passeio aleatório onde o processo pode subir 1 ou descer 1, e somamos esses incrementos ao longo dos caminhos. Escrevi um script para gerar 10 caminhos de amostra em um horizonte de tempo de 10 anos. O gráfico demonstra como o passeio aleatório se move para cima ou para baixo em 1 a cada passo de tempo ao longo dos caminhos.

Este exemplo revela algumas propriedades interessantes. Primeiro, os incrementos entre períodos de tempo, como m_k+1 - m_k, são independentes. Além disso, a expectativa desses incrementos independentes é zero, e a variância é igual à diferença de tempo ou à distância entre os intervalos de tempo (k_i+1 - k_i). A variância se acumula a uma taxa de um por unidade de tempo.

Além disso, o passeio aleatório simétrico é um martingale. Isso significa que a expectativa condicional do próximo valor, dada a posição atual, é igual à posição atual. No contexto de um passeio aleatório simétrico, a expectativa do

Continuando de onde paramos, no próximo vídeo, exploraremos como criar amostras de movimento browniano geométrico usando Python. O movimento browniano geométrico é um processo estocástico comumente usado em matemática financeira para modelar preços de ações. É um conceito essencial para entender no campo.

Mas antes de mergulharmos nisso, vamos recapitular algumas das principais propriedades do movimento browniano. O movimento browniano é um processo estocástico caracterizado por várias propriedades:

  1. Incrementos independentes: Os incrementos do movimento browniano são independentes, o que significa que a mudança entre quaisquer dois pontos no tempo não está relacionada com a mudança entre quaisquer outros dois pontos.

  2. Distribuição gaussiana: os incrementos do movimento browniano seguem uma distribuição gaussiana ou normal. Essa distribuição descreve a probabilidade de vários resultados e é um conceito fundamental na teoria da probabilidade.

  3. Caminhos de amostra contínuos: o movimento browniano tem caminhos de amostra contínuos, o que significa que é não diferenciável em cada período de tempo. Essa propriedade o torna adequado para modelar vários fenômenos com flutuações aleatórias.

  4. Variação quadrática: A variação quadrática é uma propriedade única do movimento browniano no cálculo estocástico. Ele mede as flutuações acumuladas ao longo do tempo e é crucial para entender o comportamento dos processos estocásticos.

Agora, vamos discutir o movimento browniano geométrico. O movimento browniano geométrico é uma extensão do movimento browniano que incorpora crescimento exponencial. É comumente usado para modelar o comportamento de ativos financeiros, como preços de ações. O movimento browniano geométrico tem a seguinte forma:

dS(t) = μS(t)dt + σS(t)dW(t)

Aqui, S(t) representa o preço do ativo no tempo t, μ é o retorno esperado ou taxa de deriva, σ é a volatilidade ou desvio padrão dos retornos, dt é um pequeno intervalo de tempo e dW(t) é um movimento browniano padrão incremento.

Para simular o movimento browniano geométrico, podemos discretizar o processo usando métodos numéricos como o método de Euler ou a integral de Itô. Esses métodos nos permitem aproximar o processo contínuo usando uma sequência de etapas discretas.

No próximo vídeo, exploraremos os detalhes matemáticos do movimento browniano geométrico e suas aplicações na matemática financeira. Também forneceremos exemplos práticos e trechos de código em Python para simular e visualizar o movimento browniano geométrico.

Se você estiver interessado em aprender mais sobre esse assunto, inscreva-se em nosso canal e fique atento aos próximos vídeos. Estamos ansiosos para compartilhar mais insights com você. Obrigado pela atenção, e até o próximo vídeo!

 

Simulando Movimento Browniano Geométrico em Python | Cálculo Estocástico para Quants


Simulando Movimento Browniano Geométrico em Python | Cálculo Estocástico para Quants

Bom dia, YouTube, e bem-vindo de volta ao ASX Portfolio Channel. Meu nome é Jonathan, e hoje vamos simular o movimento browniano geométrico em Python. Neste tutorial, não abordaremos a derivação da dinâmica do movimento browniano geométrico nem cobriremos cálculos de Ito, integrais de Ito e processos estocásticos. No entanto, exploraremos esses tópicos em detalhes no tutorial a seguir. Se você estiver interessado em saber mais sobre eles, inscreva-se em nosso canal e ative o sininho para ser notificado quando o vídeo for lançado.

Vamos pular para a simulação. Usarei este notebook Jupyter para fins de demonstração. Primeiro, definiremos os parâmetros para nossa simulação. O coeficiente de deriva, mu, é definido como 0,1 ou 10% ao longo de um ano. Vamos definir o número de etapas de tempo como "n" e defini-lo como 100 para uma simulação granular. O tempo será medido em anos, denotado como "T". O número de simulações será indicado como "m" e definido como 100. O preço inicial da ação, S0, é definido como 100 e a volatilidade, sigma, é definida como 30. Vamos importar as dependências necessárias: numpy as np e matplotlib .pyplot como plt.

Agora vamos simular os caminhos geométricos do movimento browniano. Para calcular o intervalo de tempo, dividimos T por n. Em seguida, usaremos matrizes numpy para executar a simulação em uma etapa, em vez de iterar nos caminhos. Vamos definir um array chamado "st" e usar a função exponencial do numpy. Dentro da função, definiremos os componentes: mu menos sigma ao quadrado dividido por 2, multiplicado por dt. Em seguida, multiplicaremos sigma pela função random.normal de numpy, que mostra a distribuição normal, e multiplicaremos pela raiz quadrada de dt. O tamanho desta matriz será m por n, representando o número de simulações e intervalos de tempo, respectivamente. Como queremos a simulação para cada etapa de tempo, faremos a transposição desse array.

Para incluir o ponto inicial de cada simulação, usaremos a função vstack de numpy para empilhar um array numpy de uns com o array de simulação st. Isso garantirá que cada simulação comece com o valor inicial. Por fim, multiplicaremos a matriz empilhada pelo valor inicial para contabilizar as alterações diárias em termos de desvio, variação e componente estocástico. Isso nos dará as implementações de passo de tempo. Para acumular esses valores ao longo do tempo, usaremos a função de produto cumulativo de numpy ao longo de cada caminho de simulação, especificando o eixo 1. Isso calculará o produto cumulativo para cada caminho.

Agora que temos os caminhos simulados, vamos considerar os intervalos de tempo em anos. Usaremos a função linspace do numpy para gerar intervalos de tempo uniformemente espaçados de 0 a T, com n+1 espaços. Isso nos dará uma matriz chamada "tempo". Em seguida, criaremos um array numpy chamado "fill" com a mesma forma de st para que possamos plotar a função. Usaremos a função completa do numpy e definiremos fill_value como time. Fazendo a transposta desse vetor, podemos traçar o gráfico com os anos ao longo do eixo x e o preço da ação ao longo do eixo y, levando em conta a dispersão resultante da volatilidade de 30% e aumento de 10% na média ou drift over este movimento browniano geométrico.

O movimento browniano geométrico é um modelo útil para a teoria de precificação de opções e várias aplicações de matemática financeira. Espero que você tenha encontrado valor neste tutorial. No próximo vídeo, vamos nos aprofundar na matemática financeira, cálculo de Ito, integrais de Ito e explorar como aumentar a complexidade das equações diferenciais estocásticas adicionando diferentes parâmetros. Se você quiser saber mais, inscreva-se em nosso canal e ative o sininho de notificação para ser notificado quando o vídeo for lançado na próxima semana. Até lá, fique atento para mais conteúdo valioso. Obrigado por assistir, e até o próximo vídeo.

 

Cálculo Estocástico para Quants | Entendendo o Movimento Geométrico Browniano usando o Itô Calculus


Cálculo Estocástico para Quants | Entendendo o Movimento Geométrico Browniano usando o Itô Calculus

Bom dia, YouTube, e bem-vindo de volta ao ASX Portfolio. Hoje, vamos discutir por que o movimento browniano é uma escolha inadequada para modelar mercados financeiros. É bastante óbvio que o movimento browniano resultaria em preços de ações negativos, o que não é realista. Em vez disso, precisamos de uma maneira de preservar algumas das propriedades estocásticas do movimento browniano e incorporá-las em nossos modelos. Isso pode ser alcançado usando processos Ito, que nos permitem adicionar a fonte de risco do movimento browniano.

Um processo Ito bem conhecido é o Movimento Geométrico Browniano (GBM), com o qual muitos de vocês podem estar familiarizados. Podemos aproveitar as propriedades do movimento browniano para desenvolver novos modelos que se alinhem melhor com exemplos da vida real. Para conseguir isso, empregamos um tipo especial de cálculo conhecido como cálculo de Ito, que é comumente usado em matemática financeira estocástica.

Hoje, vamos nos concentrar em entender a integral de Ito e como ela pode nos ajudar a resolver problemas complexos. Discutiremos o lema de Ito, que serve como identidade no cálculo de Ito e ajuda na derivação de regras. Além disso, exploraremos a fórmula de Ito-Dobelin e a derivação da dinâmica do Movimento Geométrico Browniano.

Para mergulhar mais fundo nesses conceitos, recomendo fortemente o segundo livro de Stephen Shreve, "Continuous-Time Models for Stochastic Calculus". O Capítulo 4 cobre o material que discutiremos hoje.

Agora, vamos começar entendendo o que é uma integral Ito. É essencial lembrar que toda a matemática que discutiremos é baseada em um espaço de probabilidade filtrado. Este espaço abrange os resultados, filtrações e medidas de probabilidade. Filtração refere-se a uma álgebra sigma que contém todas as informações até o tempo t. Embora a teoria da probabilidade seja complexa, vamos apenas abordá-la brevemente hoje. Para uma compreensão mais aprofundada, recomendo consultar os três primeiros capítulos do livro de Shreve.

A integral Ito é representada pelo símbolo ∫δdW, onde δ é um processo estocástico e dW é o processo de Wiener. Para entender seu significado, vamos imaginar a divisão do período de tempo de 0 a T em pequenos intervalos. Podemos denotar o processo estocástico δ à potência de n, onde n representa o número de intervalos de tempo. Este processo é adaptado, o que significa que seus valores são determinados pelos resultados de cara ou coroa em cada intervalo de tempo.

Agora, considere a integral como o limite de uma soma conforme o número de intervalos se aproxima do infinito. Cada summand consiste no processo estocástico δ multiplicado pela mudança no processo de Wiener entre os intervalos. À medida que os intervalos se tornam menores, convergimos para a integral de Ito. No entanto, para que esse limite exista, duas condições devem ser satisfeitas: o processo δ deve ser adaptado à filtração e deve ser integrável ao quadrado.

Agora que entendemos a notação, vamos passar para os processos Ito gerais. Esses processos ocorrem no mesmo domínio de tempo com o mesmo espaço de resultados. Eles envolvem integrais baseados no tempo e integrais de Ito em relação ao processo de Wiener. A integral baseada no tempo é semelhante a uma integral de Riemann regular, enquanto a integral de Ito captura a natureza estocástica do processo. Esses processos podem ser divididos em termos de deriva e difusão.

Um exemplo de processo Ito é o Movimento Browniano Geométrico (GBM). É composto por um termo de deriva e um termo de difusão. A deriva é determinada por uma constante μ, enquanto a difusão é controlada por um parâmetro de volatilidade σ. A dinâmica do GBM pode ser expressa usando integrais, conforme mostrado na equação.

Expandindo isso, podemos também considerar a integral de um processo Ito. Por exemplo, a integral do processo Ito pode representar os lucros e perdas (P&L) da negociação.

Na decomposição de Itô-Doob, temos esse processo genérico representado pela integral do termo de deriva, a integral do termo de difusão e o termo da integral de Itô. Agora, a fórmula Itô-Doob fornece uma maneira de calcular o diferencial de uma função do processo. Afirma que o diferencial da função é igual à derivada parcial da função em relação ao tempo, mais as derivadas parciais da função em relação às variáveis de estado multiplicadas pelos termos de desvio, mais as derivadas parciais da função em relação às variáveis de estado multiplicadas pelos termos de difusão, mais a integral das derivadas parciais da função em relação às variáveis de estado multiplicadas pelo termo integral de Itô.

Esta fórmula nos permite calcular a mudança no valor de uma função à medida que o processo evolui ao longo do tempo. É uma ferramenta fundamental no cálculo de Itô e é amplamente utilizada em análises estocásticas e finanças matemáticas.

Passando para o movimento browniano geométrico (GBM), é um tipo específico de processo de Itô comumente usado para modelar a dinâmica de preços de ações e outros ativos financeiros. O GBM incorpora componentes de deriva e difusão. O termo drift representa a taxa de retorno esperada do ativo, enquanto o termo difusão captura a volatilidade ou aleatoriedade nos movimentos de preço do ativo.

A dinâmica do GBM pode ser derivada usando o cálculo de Itô. Aplicando a fórmula de Itô ao logaritmo do preço do ativo, obtemos uma expressão que descreve a variação do logaritmo do preço ao longo do tempo. Essa mudança é igual ao termo de deriva multiplicado pelo incremento de tempo, mais o termo de difusão multiplicado pela integral de Itô. Ao exponenciar ambos os lados da equação, recuperamos a dinâmica do próprio preço do ativo.

Compreender a dinâmica do GBM é crucial na precificação de opções e no gerenciamento de riscos. Ele nos permite modelar o comportamento estocástico dos preços dos ativos e estimar as probabilidades de vários resultados. O GBM tem sido amplamente utilizado em matemática financeira e serviu de base para muitos modelos de precificação, como o modelo Black-Scholes para precificação de opções.

Em resumo, o cálculo de Itô fornece uma estrutura poderosa para modelar e analisar processos estocásticos em finanças. Ao incorporar integrais de Itô e aplicar o lema de Itô e a fórmula de Itô-Doob, podemos derivar a dinâmica de várias variáveis financeiras e desenvolver modelos que capturam as propriedades estocásticas dos mercados do mundo real. O cálculo Itô revolucionou o campo das finanças matemáticas e continua a ser uma ferramenta essencial para a compreensão e gestão do risco financeiro.

 

Cálculo Estocástico para Quants | Precificação Neutra ao Risco para Derivativos | Preço da opção explicado


Cálculo Estocástico para Quants | Precificação Neutra ao Risco para Derivativos | Preço da opção explicado

Neste vídeo, vamos nos aprofundar na matemática financeira por trás da avaliação de um derivativo financeiro usando simulação de Monte Carlo e precificação neutra em relação ao risco. Responderemos a perguntas como por que a simulação de Monte Carlo é usada, o que é precificação neutra ao risco e por que a taxa de crescimento das ações não entra no modelo de derivativos.

A precificação neutra ao risco é uma metodologia em que o valor de uma opção é a expectativa descontada de seus pagamentos futuros. Em outras palavras, é o valor esperado de todos os payoffs possíveis de um derivativo, descontados para o tempo presente. A taxa de crescimento da ação subjacente não afeta o preço da opção na estrutura de precificação neutra ao risco. Isso ocorre porque o derivativo e a ação subjacente possuem uma correlação perfeita, permitindo a replicação e a criação de uma carteira livre de risco.

Existem vários benefícios em usar a abordagem de precificação neutra ao risco em relação a outros métodos de avaliação. Em primeiro lugar, com formulações derivadas complexas, as soluções de forma fechada podem não ser viáveis. Nesses casos, usar métodos de replicação e resolver equações diferenciais parciais (PDEs) pode ser computacionalmente caro. A precificação neutra ao risco, por outro lado, permite uma aproximação fácil do valor da opção usando a simulação de Monte Carlo, que é menos dispendiosa computacionalmente.

Para explicar a precificação neutra ao risco, começamos considerando o modelo binomial de um período. Nesse modelo, a ação pode subir ou descer, e o valor da opção depende desses dois resultados possíveis. Ao construir uma carteira de ações subjacentes e um ativo livre de risco, podemos replicar o retorno da opção. Usando o princípio da não arbitragem, o valor da opção no tempo zero deve ser igual ao valor da carteira no tempo zero. Resolvendo as equações lineares, podemos obter uma fórmula que representa a expectativa descontada no modelo binomial.

Introduzimos o conceito de uma medida de probabilidade neutra ao risco, denotada como q, que nos permite mudar das probabilidades físicas do preço das ações para as probabilidades neutras ao risco. Essa mudança é realizada reponderando as probabilidades físicas por uma variável aleatória chamada derivada de nickdem aleatório. Essa derivada nos permite traduzir o valor da opção do mundo de precificação neutra ao risco para o mundo da probabilidade física.

O objetivo da precificação neutra ao risco é identificar o processo de derivação de nickdem aleatório, denotado como Zt, que garante que todos os preços de ações com desconto sejam martingales sob a medida de probabilidade neutra ao risco q. Ao realizar uma mudança de medida, podemos converter o movimento browniano original sob a medida de probabilidade física em um novo movimento browniano sob a medida de probabilidade neutra ao risco. Esse novo movimento browniano é um processo martingale, indicando que sua expectativa permanece constante ao longo do tempo.

Para aplicar esses conceitos, consideramos o modelo de movimento browniano geométrico, que representa a dinâmica de uma ação não pagadora de dividendos. O modelo consiste em um componente determinístico e um componente estocástico, representando a volatilidade. No entanto, a dinâmica do estoque original não é um martingale sob as probabilidades físicas devido ao componente determinístico. Para tornar a dinâmica um martingale, introduzimos a derivada Radon-Nikodym, que remove o termo de deriva e transforma a dinâmica de ações em um processo de martingale sob a medida de probabilidade neutra ao risco.

Em resumo, a precificação neutra ao risco e a simulação de Monte Carlo fornecem uma estrutura valiosa para a avaliação de derivativos financeiros. A abordagem de precificação neutra em relação ao risco oferece benefícios como simplicidade, eficiência computacional e a capacidade de lidar com estruturas de derivativos complexas. Usando o derivativo de nickdem aleatório e alterando a medida de probabilidades físicas para probabilidades neutras ao risco, podemos avaliar com precisão os derivativos e replicar seus retornos de maneira livre de risco.

 

Negociação de volatilidade de ações com o processo Ornstein-Uhlenbeck


Negociação de volatilidade de ações com o processo Ornstein-Uhlenbeck

No início de 2020, o S&P 500 experimentou um aumento significativo na volatilidade, pois os preços caíram acentuadamente. No período de um mês, o índice despencou quase mil pontos. Ao mesmo tempo, a expectativa de volatilidade futura, com base nas opções de índices negociados, também disparou neste período, atingindo um pico de 66. Ficou claro que durante os períodos de volatilidade do mercado, quando o valor do índice caiu, o VIX (Índice de Volatilidade) subiu. O VIX serve como uma estimativa futura de volatilidade. Esse fenômeno levou os formadores de mercado e profissionais de negociação a antecipar que a volatilidade percebida persistiria.

Neste vídeo, pretendemos explicar as características de volatilidade do mercado e discutir uma metodologia para modelar a volatilidade ajustando a fórmula de Ornstein-Uhlenbeck a um índice de volatilidade específico. Usaremos o método de estimativa de máxima verossimilhança para calibrar os três parâmetros do modelo para dados de mercado. Posteriormente, simularemos esse processo em Python, permitindo compreender e analisar a dinâmica da volatilidade ao longo do tempo.

Para fazer isso, importaremos várias dependências, como time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader e a função plot_acf do módulo stats. Os dados que utilizaremos são os dados do S&P 500 de 2003 em diante. Para estudar o agrupamento de volatilidade e suas propriedades em séries temporais financeiras, vamos nos referir ao trabalho de pesquisa "Volatility Clustering in Financial Markets" de Ramacant (2005), que explora as propriedades estatísticas de séries temporais financeiras. As três propriedades significativas nas quais focaremos são excesso de volatilidade, caudas pesadas e agrupamento de volatilidade.

O agrupamento de volatilidade refere-se à observação de que grandes mudanças nos preços tendem a ser seguidas por outras grandes mudanças, independentemente de sua direção, enquanto pequenas mudanças geralmente são seguidas por pequenas mudanças. Essa manifestação quantitativa sugere que, embora os retornos possam ser não correlacionados, os retornos absolutos ou seus quadrados apresentam uma pequena correlação positiva que diminui gradualmente ao longo do tempo. Para analisar isso, examinamos os retornos de log, que representam o logaritmo das mudanças de preços ao longo do tempo. Ao examinar visualmente os retornos de log do S&P 500, podemos observar clusters de alta magnitude durante períodos específicos, como os clusters significativos em 2008-2009 e 2020.

Em seguida, avaliamos a correlação entre os retornos logarítmicos defasados. Notavelmente, não encontramos nenhuma autocorrelação estatisticamente significativa nos retornos de log no intervalo de dados especificado. No entanto, quando elevamos ao quadrado os retornos de log para focar na magnitude absoluta, observamos uma forte correlação positiva que se estende até mesmo para dias e semanas defasados. Isso implica que, durante os períodos de alta volatilidade, é provável que persista e, durante os períodos de baixa volatilidade, a tendência também deve continuar. Esse fenômeno é conhecido como agrupamento de volatilidade.

Para visualizar a volatilidade contínua ao longo de um número específico de dias, selecionamos uma janela de negociação e calculamos o desvio padrão nessa janela. Para anualizar a volatilidade, calculamos a raiz quadrada do número de dias de negociação em um ano, que normalmente é 252. Essa abordagem nos permite observar aumentos significativos na volatilidade realizada durante determinados períodos.

Para modelar esse processo de volatilidade realizada, recorremos à fórmula de Ornstein-Uhlenbeck. Essa fórmula, também conhecida como modelo de Vasicek em matemática financeira, considera três parâmetros: kappa, que representa a taxa média de reversão; teta, a volatilidade média em torno da qual os preços flutuam; e sigma, a própria volatilidade. Nosso objetivo é encontrar valores de parâmetros que maximizem a probabilidade dos dados observados aderirem a essa distribuição.

Para conseguir isso, empregamos o método de estimativa de máxima verossimilhança (MLE), que se aplica a amostras aleatórias e funções de densidade de probabilidade. No caso da distribuição normal, a função de verossimilhança é o produto das probabilidades das amostras individuais dados os parâmetros. Tomando o logaritmo da função de verossimilhança, podemos converter

Agora que derivamos a expectativa e a variância do processo de Ornstein-Uhlenbeck, podemos continuar a modelar a volatilidade usando essa estrutura. Para fazer isso, vamos calibrar os parâmetros do modelo para dados de mercado usando o método de estimativa de máxima verossimilhança (MLE).

Primeiro, importamos as dependências necessárias, incluindo bibliotecas como time, math, numpy, pandas, datetime, scipy, matplotlib, pandas_datareader e a função plot_acf do módulo stats. Também importamos os dados do S&P 500 desde 2003, que servirão como nossos dados de mercado.

Em seguida, exploramos o conceito de agrupamento de volatilidade em séries temporais financeiras. O agrupamento de volatilidade refere-se ao fenômeno em que grandes mudanças nos preços tendem a ser seguidas por outras grandes mudanças, e pequenas mudanças tendem a ser seguidas por pequenas mudanças. Observamos esse efeito de agrupamento visualmente ao plotar os retornos logarítmicos do S&P 500. Podemos ver que, durante períodos de volatilidade do mercado, a magnitude dos retornos logarítmicos se agrupa, indicando uma correlação entre grandes movimentos de preços. Por exemplo, podemos ver clusters durante a crise financeira em 2008-2009 e o pico de volatilidade em 2020.

Para quantificar a correlação entre os retornos de log, calculamos a função de autocorrelação (ACF). Enquanto os próprios retornos logarítmicos não mostram autocorrelação significativa, os retornos logarítmicos quadrados (representando a magnitude absoluta) exibem uma pequena correlação positiva que decai lentamente com o tempo. Essa autocorrelação de magnitude absoluta confirma a presença de clustering de volatilidade, onde períodos de alta volatilidade tendem a persistir, enquanto períodos de baixa volatilidade também tendem a persistir.

Para analisar melhor a volatilidade, calculamos a volatilidade contínua ao longo de um número especificado de dias calculando o desvio padrão e anualizando-o usando a raiz quadrada do número de dias de negociação em um ano. Ao plotar a volatilidade contínua, podemos observar períodos de aumento da volatilidade, indicados por aumentos significativos na volatilidade realizada.

Agora, apresentamos a fórmula de Ornstein-Uhlenbeck (OU), que é usada para modelar a volatilidade. O modelo OU incorpora reversão média, nível médio e volatilidade em torno do preço médio. Os parâmetros do modelo incluem kappa (taxa de reversão média), theta (nível médio) e sigma (volatilidade). Para estimar esses parâmetros, aplicamos o método de estimativa de máxima verossimilhança (MLE), que envolve encontrar os valores dos parâmetros que maximizam a verossimilhança dos dados observados vindos da distribuição OU.

Começamos discutindo a função de verossimilhança, que é a função de densidade de probabilidade conjunta (pdf) dos dados observados dados os parâmetros. No caso da distribuição normal, a função de verossimilhança é o produto dos valores de pdf individuais. Tirar o logaritmo da função de verossimilhança simplifica os cálculos, pois transforma o produto das probabilidades na soma dos logaritmos. Ao encontrar o estimador de máxima verossimilhança (MLE) dos parâmetros, podemos determinar os valores que maximizam a verossimilhança dos dados observados.

No caso do processo OU, precisamos usar métodos numéricos para encontrar as estimativas de máxima verossimilhança devido à não diferenciabilidade da função log-verossimilhança. Utilizamos a função scipy.optimize.minimize para minimizar a verossimilhança logarítmica negativa, pois fornece uma solução numérica para o problema de maximização. Ao definir a função de log-verossimilhança, parâmetros iniciais e restrições, podemos estimar os parâmetros que maximizam a verossimilhança dos dados observados.

Depois de estimar os parâmetros do processo OU, podemos simular o processo usando Python. Podemos simular o processo discretizando os passos de tempo e obtendo um caminho ao longo do tempo ou simulando-o como um processo Itô de tempo contínuo. O último método fornece uma representação mais precisa da dinâmica da volatilidade em momentos específicos.

Em conclusão, o texto discute as características de volatilidade observadas no S&P 500 durante períodos de volatilidade do mercado. Ele introduz o conceito de agrupamento de volatilidade e demonstra sua presença usando retornos logarítmicos e retornos logarítmicos quadrados. O modelo Ornstein-Uhlenbeck (OU) é então introduzido como uma estrutura para modelar a volatilidade, e o método de estimativa de máxima verossimilhança (MLE) é usado para estimar os parâmetros do modelo. Por fim, é explicada a simulação do processo de OU, permitindo a análise e compreensão da dinâmica da volatilidade ao longo do tempo.

 

A fórmula mágica para opções de negociação sem risco



A fórmula mágica para opções de negociação sem risco

Neste vídeo, você aprenderá como usar a fórmula de Breeden-Litzenberger para derivar funções de densidade de probabilidade neutra ao risco a partir de preços de opções. Essa técnica é extremamente útil quando o cálculo de preços de opções se torna demorado e computacionalmente intensivo, especialmente para dinâmicas complexas e cenários de alta dimensão. A fórmula de Breeden-Litzenberger nos permite calcular derivativos complexos uma vez para diferentes valores de preço de exercício e tempo até o vencimento, resultando em uma função de distribuição de probabilidade neutra ao risco que simplifica o cálculo de vários derivativos complexos.

Para começar, vamos entender o conceito de probabilidade neutra ao risco. A análise de Feynman-Kac nos permite definir a probabilidade neutra ao risco como uma medida (Q) da probabilidade neutra ao risco terminal no tempo (t). A função de distribuição de probabilidade cumulativa (F) representa a distribuição de probabilidade neutra ao risco. A precificação de uma opção de compra europeia no tempo (t) com um preço de exercício (k) e tempo até o vencimento (tau) pode ser feita assumindo a expectativa de retorno com desconto neutro ao risco. Isso pode ser expresso como a integral de (S_t - k) multiplicada pela função de densidade neutra ao risco (pdf) entre o strike (k) e o infinito, descontado pela taxa livre de risco.

Para calcular a probabilidade neutra ao risco diretamente dessa fórmula, podemos usar a fórmula de Breeden-Litzenberger de 1978. Ela afirma que a primeira derivada da integral em relação ao strike (k) é igual a menos o fator de desconto exponencial multiplicado por (1 - F), onde F é a função densidade cumulativa. A segunda derivada da integral centrada no strike (k) extrai a pdf, que é o fator de desconto multiplicado pela pdf neutra ao risco.

Agora, vamos discutir como aplicar esta fórmula em Python. Precisamos importar bibliotecas como NumPy, SciPy, Pandas e Matplotlib. Para o exemplo, vamos considerar uma opção de compra europeia com volatilidade estocástica sob o modelo de Heston. O modelo Heston fornece a dinâmica do ativo subjacente e sua volatilidade. Inicializamos os parâmetros necessários, como preço da ação, preço de exercício, tempo até o vencimento, taxa livre de risco e parâmetros do modelo Heston, como taxa média de reversão, variância de longo prazo, volatilidade inicial, correlação e volatilidade da volatilidade.

Usando a fórmula de Breeden-Litzenberger, podemos determinar a função de distribuição de probabilidade neutra ao risco. Aproximando a segunda derivada usando a aproximação de diferenças finitas, calculamos a distribuição neutra ao risco para diferentes preços de exercício e prazos de vencimento. Construímos um pdf 2D para um determinado tempo até o vencimento.

Para calcular os preços das opções no modelo de Heston, usamos a função característica e realizamos a integração numérica usando a integração retangular. Definimos a função característica e calculamos a integral complexa sobre um domínio especificado usando integração retangular. O tamanho do passo escolhido para a integração afeta a precisão, especialmente para opções out-of-the-money.

Comparamos os resultados obtidos usando integração retangular com a biblioteca QuantLib, que é implementada em C e fornece integração numérica mais precisa. Embora existam algumas diferenças entre as duas abordagens, o erro quadrático médio (MSE) é pequeno. As discrepâncias se devem principalmente a erros de arredondamento causados pela representação binária de valores decimais em Python.

Após obter a pdf aproximada discreta, multiplicamos pelo fator direto. Usamos a interpolação para suavizar a curva e criar uma função de distribuição contínua neutra ao risco. Finalmente, podemos usar essa distribuição neutra ao risco para precificar facilmente vários derivativos complexos.

Em conclusão, a fórmula de Breeden-Litzenberger nos permite derivar funções de densidade de probabilidade neutras ao risco a partir dos preços das opções. Aproximando a segunda derivada usando a aproximação de diferenças finitas e realizando integração numérica, podemos calcular a distribuição neutra ao risco para diferentes preços de exercício e valores de tempo até o vencimento. Isso nos permite precificar derivativos complexos de forma eficiente.

Razão: