Negociação quantitativa - página 10

 

Usando R em negociação no mercado financeiro em tempo real



Usando R em negociação no mercado financeiro em tempo real

Neste vídeo informativo, o apresentador aprofunda a aplicação prática do uso da linguagem de programação R na negociação em tempo real no mercado financeiro, com foco específico na negociação de moedas estrangeiras. Eles começam discutindo o apelo das moedas comerciais, destacando sua capacidade de gerenciamento e o domínio de alguns pares-chave no comércio global de moedas. Ressalta-se que a negociação de moedas estrangeiras ocorre no mercado de balcão, e não em bolsas regulamentadas. O apresentador reconhece os desafios de identificar anomalias nos movimentos cambiais devido à liquidez e aleatoriedade do mercado.

O conceito de negociação de balcão é explicado, observando que ela difere de outros tipos de negociação, pois prioriza fatores como a contraparte e o preço cotado sobre a execução e a latência. O vídeo cobre a terminologia padrão do mercado financeiro, incluindo o uso de velas para visualizar dados e a distinção entre negociação longa (comprar na baixa e vender na alta) e negociação a descoberto (vender ações emprestadas a um preço mais alto e recomprá-las a um preço mais baixo para obter lucro ).

Para demonstrar a análise em tempo real da negociação no mercado financeiro usando R, o apresentador percorre dois exemplos. O primeiro exemplo se concentra em testar a probabilidade da direção da próxima vela com base em velas consecutivas de alta ou baixa. Esta hipótese é examinada usando o conhecimento dos padrões de vela e seu impacto potencial nas tendências do mercado.

O vídeo explora ainda mais a metodologia de teste de hipóteses na negociação do mercado financeiro em tempo real usando R. Um exemplo é apresentado em que os dados são pré-processados e uma tabela de velas consecutivas é criada para avaliar a probabilidade de uma mudança na direção da vela. Os custos de negociação são definidos como zero inicialmente e um saldo de lucro é estabelecido e testado em uma data modelo. No entanto, destaca-se a importância de testar rigorosamente as entradas e saídas em um ambiente de negociação, pois definir os custos de negociação em dois pontos resulta em perda de dinheiro e na obtenção da neutralidade do mercado.

Considerações como slippage e custos de negociação são abordadas, com o palestrante enfatizando a necessidade de contabilizar esses fatores e sugerindo a incorporação de uma margem de erro. Um exemplo mais complexo envolvendo a natureza cíclica do eurodólar é apresentado, com foco na medição da ciclicidade com base em pontos de inflexão e movimentação de preços. O palestrante enfatiza a importância de manter um eixo x uniforme na análise do mercado financeiro para evitar distorções nos movimentos do mercado nos finais de semana.

O vídeo investiga uma estratégia de negociação de reversão média, que envolve a identificação de instâncias em que um mercado experimentou um rápido movimento ascendente e antecipa uma reversão de tendência de curto prazo. A distribuição de preços e os movimentos das velas são analisados para determinar os parâmetros adequados para a implementação dessa estratégia. O teste é conduzido inicialmente com zero custo de negociação, seguido por um pequeno custo de negociação de 2 pubs. Os resultados são cautelosamente otimistas, mas o palestrante reconhece a presença de possíveis problemas estatísticos que requerem mais investigação e testes reais de mercado.

A análise de regressão é apresentada como um método para suavizar pontos de dados, mas os desafios de prever tendências futuras quando a linha de regressão muda com dados adicionais são observados. O backtest básico e o forward testing usando R são discutidos, destacando as limitações do teste com apenas um instrumento e a necessidade de uma abordagem mais abrangente.

O apresentador então compartilha ideias sobre a incorporação do código R em ambientes de negociação em tempo real. Eles enfatizam a importância de recalcular os valores de regressão com frequência para se adaptar às mudanças do mercado, em vez de depender de modelos superajustados para obter sucesso a longo prazo. O código inclui parâmetros de tomada de decisão para comprar ou vender com base nas diferenças de velas e mudanças de preço, bem como uma estratégia de saída com base no alcance de um determinado limite de lucro. O apresentador demonstra o processo de backtesting e expressa confiança na obtenção de resultados positivos.

É destacada a importância de usar uma curva de Mark-to-Market Equity em vez de uma curva de Trade Equity para avaliar os sistemas de negociação. As limitações da curva de Trade Equity em refletir a posição de caixa de um sistema enquanto as negociações estão ativas são discutidas. O apresentador apresenta dois gráficos comparando os dois tipos de curvas, revelando períodos de falha do sistema e rebaixamento significativo. A necessidade de uma estratégia de stop-loss para mitigar perdas é enfatizada, e o código necessário para implementar tal estratégia é compartilhado. O apresentador reconhece que uma falha na estratégia de saída levou à manutenção de posições por muito tempo, resultando em perdas substanciais.

O vídeo então se aprofunda na integração do código R na execução de algoritmos e na utilização de um pacote do Windows no lado da modelagem. O apresentador explica que a negociação com dinheiro real ocorre em servidores Linux, que estão perfeitamente conectados à plataforma CIRA por meio de um espaço de memória compartilhado. Essa configuração permite a troca de dados, incluindo FIX, negociações e velas, entre seu sistema e a plataforma. O palestrante revela que eles gerenciam o risco negociando simultaneamente entre quatro e oito instrumentos diferentes. No entanto, eles alertam contra confiar apenas na probabilidade nas negociações do mundo real, pois isso pode fazer com que os traders percam oportunidades valiosas ao longo do dia.

Em conclusão, este vídeo fornece informações valiosas sobre a implementação prática do R na negociação em tempo real do mercado financeiro, com foco específico na negociação de moedas estrangeiras. O apresentador cobre vários aspectos, incluindo negociação de balcão, terminologia padrão do mercado financeiro, hipóteses de teste, estratégias de negociação de reversão à média, considerações como derrapagem e custos de negociação e a integração do código R na execução de algoritmos. Ao destacar os benefícios potenciais da negociação algorítmica, o vídeo também reconhece a necessidade de testes rigorosos, consideração cuidadosa de questões estatísticas e a importância das estratégias de gerenciamento de risco em cenários comerciais do mundo real.

  • 00:00:00 Ellen discute como ela usa R na negociação de moedas estrangeiras. Ela explica por que escolheu negociar moedas, afirmando que são instrumentos gerenciáveis para analisar, com cerca de sete ou oito pares que realizam 97-98% do comércio mundial de moedas. Ellen também observa que, como as moedas estrangeiras são instrumentos de balcão, elas não podem ser negociadas em uma bolsa. Ela reconhece que encontrar anomalias nos movimentos cambiais pode ser extremamente difícil devido à liquidez e à aleatoriedade do mercado.

  • 00:05:00 O palestrante explica o conceito de negociação de balcão, destacando que é uma bolsa não regulamentada, diferente de outros tipos de negociação. O palestrante explica que esse tipo de negociação enfatiza menos a execução e a latência e mais outros fatores como a contraparte e o preço cotado. O palestrante passa a explicar algumas das terminologias padrão usadas no mercado financeiro, como velas e negociação longa versus negociação curta. As velas são usadas como uma ferramenta conveniente para visualizar uma variedade de dados, enquanto negociar muito é comprar na baixa e vender na alta, e negociar a descoberto é vender ações emprestadas por um preço mais alto e comprá-las de volta quando o preço cair para obter lucro.

  • 00:10:00 O palestrante discute o conceito de negociação para cima ou para baixo no mercado forex, onde os traders estão sempre negociando um instrumento para obter algum xq. Ele também mencionou que não mostrará aos espectadores como prever o mercado ou fornecer informações secretas, mas, em vez disso, mostrará dois exemplos do tipo de coisas que ele e sua equipe analisam. O primeiro exemplo é uma questão simples de qual é a probabilidade de a próxima vela subir ou descer ao ter X velas consecutivas de alta ou baixa. O palestrante aproveita o conhecimento de up candles e down candles para testar sua hipótese e avaliar se há alguma dinâmica no mercado para prever as tendências do mercado.

  • 00:15:00 O palestrante explica sua abordagem para testar hipóteses em negociação no mercado financeiro em tempo real usando R. Eles demonstram um exemplo de pré-processamento de dados e criação de uma tabela de velas consecutivas, que mostra a probabilidade de uma mudança na direção da vela . O alto-falante então define seus custos de negociação para zero e cria um saldo de lucro, que eles testam em uma data modelo. No entanto, eles observam que definir os custos de negociação em dois pontos leva à perda de dinheiro e à neutralidade do mercado, tornando importante testar rigorosamente as entradas e saídas em um ambiente de negociação.

  • 00:20:00 O palestrante discute a importância de considerar a derrapagem no mercado ao negociar e construir uma margem de erro para contabilizar isso. Eles também mencionam a diferença nos custos de negociação dependendo do corretor e do volume de negócios. O palestrante passa então para um exemplo mais complexo de teste da natureza cíclica do eurodólar e explica como eles medem a ciclicidade de acordo com o tempo entre os pontos de virada e o movimento dos preços. Eles enfatizam a importância de usar um eixo x uniforme na análise do mercado financeiro para evitar distorções nos movimentos do mercado nos finais de semana. O palestrante se oferece para compartilhar o código e os dados deste exemplo com os espectadores.

  • 00:25:00 O palestrante explica como ele normaliza as séries de dados do mercado financeiro adicionando números de linha como o eixo x em vez de usar data e hora. Ele então realiza uma regressão de kernel para suavizar a curva e encontra os picos e quedas usando algum código. Ele testa a ciclicidade dos picos e os agrupa no quadrante inferior para mostrar que os pontos de virada significativos do eurodólar acontecem em 30 horas. O palestrante discute diferentes formas de negociação, incluindo prever o próximo ponto de virada e torná-lo um problema um pouco mais desafiador.

  • 00:30:00 O palestrante explica uma estratégia de negociação de reversão à média, que envolve a busca de oportunidades onde um mercado subiu muito e muito rápido, levando a uma reversão de tendência de curto prazo. O palestrante analisa a distribuição de preços e os movimentos das velas para determinar onde traçar a linha para essa estratégia e, em seguida, testa-a estabelecendo negociações com custo zero e posteriormente com um pequeno custo de negociação de 2 pubs. Os resultados são cautelosamente otimistas, e o palestrante sugere mais testes em condições reais de mercado. No entanto, o palestrante observa que pode haver problemas estatísticos com essa estratégia que requerem uma investigação mais aprofundada.

  • 00:35:00 O palestrante discute o uso de regressão para suavizar pontos de dados, mas adverte que a linha de regressão muda para trás à medida que mais pontos de dados são adicionados à série, dificultando a previsão de tendências futuras. Ele também explica que os testes básicos de back e forward com R são limitados a um instrumento por vez e não são ideais para vários instrumentos ou parâmetros financeiros específicos do mercado. Para resolver esse problema, ele usa uma plataforma de negociação que permite copiar e colar seu código R diretamente na plataforma e evitar processos demorados de codificação e depuração.

  • 00:40:00 O palestrante discute o código básico usado para incorporar R em ambientes de negociação em tempo real. Eles mencionam que o código é em grande parte uma cópia e colagem do código que eles tinham em seu estúdio R, concentrando-se em recalcular os valores de regressão com frequência para se adaptar às mudanças, em vez de sobreajustar o modelo e esperar que funcione a longo prazo. O código inclui uma decisão de compra ou venda com base em determinados parâmetros, como diferenças de vela e mudanças de preço, e uma estratégia para sair da posição quando o lucro atingir um determinado valor. O palestrante então mostra como fez um backtest com o código e espera bons resultados.

  • 00:45:00 O apresentador discute a importância de usar uma curva de Mark-to-Market Equity sobre uma curva de Trade Equity ao avaliar os sistemas de negociação. Ele explica que uma curva de Trade Equity não revela a posição de caixa de um sistema enquanto a negociação está em execução, por isso é difícil modelar isso em R. Ele mostra dois gráficos, um com a curva de trade equity e outro com o Mark- Curva de capital de mercado, que reflete como o sistema vacilou durante alguns períodos, levando a uma redução significativa. Ele conclui que a aplicação de uma estratégia de stop-loss teria ajudado a sair das perdas a tempo e mostra o código que permitiria fazer essa mudança. O teste final do modelo falhou devido à estratégia de saída inadequada que levou a uma espera por muito tempo, gerando grandes perdas.

  • 00:50:00 O palestrante fala sobre como eles incorporam seu código na execução de algoritmos e usam um pacote do Windows no lado da modelagem. Seu dinheiro real roda em servidores Linux e está dentro deste pacote. Eles usam um espaço de memória compartilhado entre seu sistema e a plataforma CIRA para trocar dados. Eles podem pegar FIX, negociações e velas e passá-los para seu sistema para análise, dividir os resultados de volta no CIRA e tomar decisões de negociação. Eles podem usar esse sistema para gerenciar riscos negociando entre quatro e oito instrumentos diferentes ao mesmo tempo. Eles alertam que, embora a probabilidade seja importante, confiar nela para negociações no mundo real pode fazer com que os traders percam oportunidades ao longo do dia.
Using R in real time financial market trading
Using R in real time financial market trading
  • 2015.05.28
  • www.youtube.com
Autochartist CEO, Ilan Azbel explains how R can be used in real-time market analysis to build automated trading systems - recorded at a live presentation a t...
 

Introdução à Negociação Quantitativa - Aula 1/8


Introdução à Negociação Quantitativa - Aula 1/8

Este curso abrangente serve como uma introdução aprofundada ao fascinante mundo do comércio quantitativo, equipando os alunos com o conhecimento e as habilidades necessárias para se destacar neste campo dinâmico. A negociação quantitativa gira em torno da utilização de modelos matemáticos e programas de computador para transformar ideias de negociação em estratégias de investimento lucrativas. Tudo começa com um gerente de portfólio ou comerciante que começa com uma intuição inicial ou um vago conceito de negociação. Por meio da aplicação de técnicas matemáticas, essas intuições são transformadas em modelos matemáticos de trading precisos e robustos.

O processo de negociação quantitativa envolve submeter esses modelos a análises rigorosas, testes de retorno e refinamento. Testes estatísticos e simulações são empregados para avaliar seu desempenho e garantir sua confiabilidade. Esta fase de teste meticuloso é crucial para identificar e corrigir quaisquer falhas ou pontos fracos nos modelos antes de serem colocados em ação.

Uma vez que um modelo de investimento quantitativo provou sua rentabilidade potencial, ele é implementado em um sistema de computador, permitindo a execução automatizada de negociações. Essa integração de modelos matemáticos em programas de computador está no cerne da negociação quantitativa, combinando o poder da matemática com a eficiência da ciência da computação. Ao longo do curso, os alunos exploram várias estratégias de investimento extraídas da literatura acadêmica popular, obtendo insights sobre seus princípios matemáticos subjacentes e aprendendo como traduzi-los em modelos de negociação acionáveis.

O currículo deste curso abrange uma ampla gama de tópicos, equipando os alunos com as habilidades quantitativas, de computação e de programação essenciais para o sucesso no campo da negociação quantitativa. Os alunos se aprofundam nas complexidades da modelagem matemática, análise estatística e negociação algorítmica. Eles também ganham proficiência em linguagens de programação comumente usadas em finanças quantitativas, como Python e R, permitindo-lhes implementar e testar seus modelos de negociação de forma eficaz.

Ao concluir este curso, os alunos não apenas obtêm uma visão holística do cenário comercial quantitativo, mas também desenvolvem as habilidades necessárias para navegar nele com confiança. Eles se tornam especialistas em transformar ideias de negociação em modelos matemáticos, testando e refinando rigorosamente esses modelos e, finalmente, implementando-os em cenários de negociação do mundo real. Com sua base sólida em técnicas quantitativas e computacionais, os alunos estão bem preparados para seguir carreiras em negociação quantitativa, negociação algorítmica ou outros campos relacionados onde a fusão de matemática e tecnologia leva ao sucesso.

Introduction to Quantitative Trading - Lecture 1/8
Introduction to Quantitative Trading - Lecture 1/8
  • 2013.10.01
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Introdução à Negociação Quantitativa - Aula 2/8


Introdução à Negociação Quantitativa - Aula 2/8

Nesta palestra, o palestrante enfatiza a importância da tecnologia e da programação no trading quantitativo. Eles discutem como as habilidades de tecnologia e programação são essenciais para cooptar estratégias de negociação quantitativas e realizar backtesting. O palestrante destaca a importância da matemática e da programação de computadores neste campo. Eles introduzem programação Java básica e programação matemática usando Java e enfatizam a necessidade de habilidades de programação em negociação quantitativa devido à exigência de backtesting.

O palestrante discute os desafios envolvidos na simulação e análise do desempenho futuro de uma estratégia. Eles mencionam que o histórico de lucros e perdas (PNL) não é um indicador confiável para treinamento ou decisão de mudança de estratégia. Em vez disso, eles sugerem o uso de simulação e calibração de parâmetros, que exigem programação pesada, para encontrar parâmetros ideais e testar a sensibilidade de uma estratégia a eles. Eles também enfatizam a importância de usar o mesmo software para pesquisa e negociação ao vivo para evitar erros de tradução.

O palestrante discute as responsabilidades de um quant trader e enfatiza a necessidade de prototipagem eficiente de ideias de negociação. Eles sugerem passar a maior parte do tempo fazendo brainstorming e apresentando ideias, minimizando o tempo gasto em testes e programação. Eles mencionam a importância de ter uma caixa de ferramentas de blocos de construção para prototipar rapidamente novas estratégias.

O palestrante aborda os desafios do uso de ferramentas populares como Excel, MATLAB e R na negociação quantitativa, afirmando que elas não são construídas para estratégias matemáticas sofisticadas. Eles recomendam o uso de outras linguagens de programação como Java, C-sharp e C++ que possuem bibliotecas para construir e implementar estratégias de negociação.

O palestrante discute especificamente as limitações do uso de R para negociação quantitativa. Eles mencionam que R é lento, tem memória limitada e possibilidades limitadas de paralelização. Eles também destacam a falta de ferramentas de depuração e interfaces padrão para comunicação entre diferentes programas.

O palestrante enfatiza a importância da tecnologia e do uso de ferramentas apropriadas na negociação quantitativa. Eles mencionam que ferramentas como R e MATLAB podem melhorar significativamente a programação matemática e fornecer acesso a bibliotecas para cálculos mais rápidos. Eles enfatizam a necessidade de uma boa caixa de ferramentas de pesquisa comercial que permita fácil combinação de módulos, programação paralela e limpeza automatizada de dados e calibração de parâmetros.

O palestrante discute as vantagens de usar tecnologias mais recentes, como Java e C#, para negociações quantitativas. Eles mencionam que essas linguagens eliminam a necessidade de depuração para problemas como vazamentos de memória e falhas de segmentação, o que melhora a produtividade. Eles demonstram programação Java e fornecem sessões práticas de laboratório para os participantes.

O palestrante explica como corrigir a entrada de um programa Java corrigindo as importações e demonstra programação matemática usando a biblioteca algo quant. Eles orientam os participantes a copiar e colar o código do site em seus computadores para execução.

O palestrante aborda dúvidas técnicas da plateia sobre o download e execução do código utilizado na palestra. Eles demonstram a versão clássica de uma cadeia de Markov oculta usando a função de webinar.

O palestrante explica o conceito de uma cadeia de Markov e demonstra um modelo simples de dois estados com probabilidades de transição. Eles explicam como as cadeias de Markov são usadas como geradores de números aleatórios para simular observações e estimar parâmetros do modelo. Eles encorajam o público a experimentar a criação de seus próprios modelos de cadeia de Markov.

O palestrante discute a importância da comunicação e colaboração no comércio quantitativo e incentiva os membros da equipe a verificar uns com os outros e fornecer atualizações sobre seu progresso. Eles mencionam a possibilidade de usar modelos de Markov de ordem superior e convidam a perguntas e compartilhamento de tela durante as discussões ao vivo.

O palestrante discute os desafios de estimar parâmetros em modelos quantitativos de negociação com observações limitadas. Eles explicam que mais dados são necessários para uma estimativa precisa e recomendam o uso de modelos de estado maiores ou o aumento do número de observações. Eles discutem o algoritmo Baum-Welch para treinar modelos ocultos de Markov e introduzem o conceito de backtesting.

O palestrante demonstra uma estratégia simples de cruzamento de média móvel no AlgoQuant e explica o processo de criação de estratégias, simuladores e execução de simulações. Eles destacam a importância de testar e analisar o desempenho usando medidas como lucros e perdas, índice de informações, rebaixamento máximo e muito mais.

O palestrante explica como explorar diferentes estratégias de negociação e testar seu desempenho por meio de simulação. O palestrante explica que a simulação permite que os traders avaliem a lucratividade potencial e os riscos associados a uma estratégia antes de implementá-la na negociação ao vivo. Ao simular diferentes condições e cenários de mercado, os traders podem obter informações sobre o desempenho da estratégia e tomar decisões informadas.

O palestrante também enfatiza a importância dos custos de transação nas estratégias de negociação. Os custos de transação, como taxas de corretagem e derrapagem, podem ter um impacto substancial na lucratividade geral de uma estratégia. Portanto, é crucial levar em consideração os custos de transação durante a simulação e o backtesting para obter uma avaliação realista do desempenho de uma estratégia.

Além disso, o palestrante introduz o conceito de gerenciamento de risco na negociação quantitativa. Eles explicam que a gestão de riscos envolve a implementação de estratégias para controlar e mitigar perdas potenciais. As técnicas de gerenciamento de risco podem incluir a definição de ordens de stop loss, dimensionamento de posição e diversificação. É essencial incorporar os princípios de gerenciamento de risco nas estratégias de negociação para se proteger contra perdas financeiras significativas.

O palestrante conclui reiterando a importância do aprendizado contínuo e da melhoria no trading quantitativo. Eles incentivam os participantes a explorar diferentes estratégias, analisar seu desempenho e repetir com base nos resultados. Ao alavancar a tecnologia, as habilidades de programação e uma abordagem sistemática para o desenvolvimento de estratégias, os traders podem aumentar sua lucratividade e sucesso nos mercados financeiros.

No geral, a palestra enfoca a importância da tecnologia, programação, simulação e gerenciamento de risco na negociação quantitativa. Ele destaca a necessidade de experimentação, aprendizado contínuo e uso de ferramentas especializadas para desenvolver e refinar estratégias de negociação.

Parte 1

  • 00:00:00 O palestrante começa abordando possíveis questões da palestra anterior e onde encontrar os materiais do curso. O foco desta palestra está na importância da tecnologia e da programação no trading quantitativo, pois é essencial para cooptar estratégias de trading quantitativo e realizar backtesting. O palestrante enfatiza a importância da matemática e da programação de computadores e prossegue apresentando um pouco da programação Java básica e da programação matemática usando Java. A sessão prática inclui estratégias de cooptação para backtesting, e o palestrante pergunta se todos instalaram bin e algo quant em seus computadores e passaram no teste Maven. Tradicionalmente, para outros tipos de negociação, como investimento em valor ou negociação baseada em intuição, você não precisaria de muita programação, mas é essencial na negociação quantitativa devido à exigência de backtesting.

  • 00:05:00 O palestrante discute a importância da programação de computadores na negociação quantitativa, particularmente na simulação e análise do desempenho futuro de uma estratégia. Eles mencionam que o PNL histórico não é um indicador confiável para treinar ou decidir se deve ou não mudar uma estratégia. Em vez disso, eles sugerem o uso de simulação e calibração de parâmetros, que exigem programação pesada, para encontrar parâmetros ideais e testar a sensibilidade de uma estratégia a eles. Eles também enfatizam a importância de usar o mesmo software para pesquisa e negociação ao vivo para evitar possíveis erros de tradução. Por fim, o palestrante destaca que as habilidades de programação de computadores são críticas no setor de negociação financeira e podem impactar bastante os lucros.

  • 00:10:00 O palestrante discute as responsabilidades ideais de um quant trader, que envolvem apresentar ideias de negociação e prototipá-las rapidamente, enquanto deixa as tarefas mecânicas, como testar computação, propriedades PNL e calibração de parâmetros, para um sistema de computador . Idealmente, um trader gastaria apenas cerca de 10% de seu tempo codificando suas estratégias e dependeria de blocos de construção ou modelos para prototipar estratégias de forma rápida e eficiente, sem ter que codificar tudo do zero. O palestrante enfatiza a importância de passar a maior parte do tempo fazendo brainstorming e apresentando ideias de negociação, minimizando o tempo gasto em testes e programação.

  • 00:15:00 O palestrante enfatiza a importância de ter uma caixa de ferramentas de blocos de construção que os pesquisadores possam usar para prototipar rapidamente novas estratégias. Ele menciona que o Algocron oferece diferentes blocos de construção, como indicadores de mercado de baixa baseados em probabilidades condicionais e cointegração para controlar cestas. Ele enfatiza a ideia de que criar estratégias deve ser como brincar com Legos, onde os pesquisadores podem juntar blocos para construir uma nova estratégia. O palestrante explica que, apesar de passar a maior parte do tempo tendo ideias, os traders precisam fazer backtesting e limpeza de dados, o que pode ser um desafio. Eles precisam processar grandes quantidades de dados de diferentes fontes e extrair informações úteis, como taxas de ganho de preço, enquanto lidam com dados ausentes ou incorretos. O processo requer programação significativa e, se as estratégias forem orientadas a eventos, os pesquisadores podem precisar de um banco de dados de programação de notícias e anúncios.

  • 00:20:00 O palestrante discute as complicações envolvidas na simulação de uma estratégia de negociação com um livro de ofertas. Um problema é a derrapagem, o que significa que só porque alguém quer comprar algo a um determinado preço não significa que eles possam realmente comprá-lo a esse preço devido ao movimento do mercado. Outra questão são as suposições de execução na modelagem do livro de pedidos. O processo de simulação é complicado e demorado, especialmente se estiver usando linguagens de script como MATLAB ou R. A calibração e a simulação de parâmetros podem levar centenas de horas, e bugs no código do software podem prolongar ainda mais o processo. O processo de depuração de código é longo e frustrante e pode levar à desistência da negociação, não por causa de código incorreto, mas por falta de tempo ou frustração.

  • 00:25:00 O palestrante discute a realidade do trading quantitativo e as ferramentas que os traders usam. Eles explicam que muitos traders de moedas são analistas quantitativos que gastam quase 90% de seu tempo programando e depurando, o que não é o que o trabalho deveria ser. A razão para isso é que as ferramentas de pesquisa usadas pelos traders são primitivas e as mais populares incluem Excel, MATLAB, R e software comercial. No entanto, o palestrante argumenta que essas ferramentas não são construídas para negociação quantitativa e não são úteis para a construção de estratégias matemáticas sofisticadas. Eles sugerem que outras linguagens de programação como Java, C-sharp e C++ tenham bibliotecas para montar e construir estratégias de mudança que os traders possam usar.

  • 00:30:00 O palestrante discute as desvantagens de usar R para negociação quantitativa. Um dos principais problemas é que o R é muito lento por ser uma linguagem interpretada, o que significa que o interpretador executa linha por linha. Além disso, há uma quantidade limitada de memória disponível, o que impossibilita o carregamento de uma quantidade significativa de dados na memória para análise. Além disso, a possibilidade de paralelização é muito limitada, dificultando a execução de simulações em milhares de CPUs. O palestrante menciona que usar R para computação paralela é difícil e seu IDE não é tão avançado quanto outras linguagens como Java e C-sharp. Também não há ferramentas de depuração disponíveis, dificultando a identificação de problemas, e não há interface padrão para comunicação entre diferentes programas.

  • 00:35:00 O palestrante discute as vantagens e desvantagens de usar R como uma ferramenta de estratégia de negociação quantitativa. Ele destaca que o R tem suporte limitado à programação orientada a objetos e a maior parte do código é escrita usando linguagem procedural, mas tem vantagens significativas em relação às linguagens de uso geral. O maior desafio com R é que não há como garantir que o código-fonte esteja livre de erros, e isso pode ser frustrante ao depurar o código. O palestrante enfatiza a importância da tecnologia, explicando que contar com armamento (ferramentas e pesquisa) é crucial na guerra comercial. Uma pessoa inteligente sem tecnologia não pode esperar competir com alguém que usa tecnologia, como computação paralela e aprendizado de máquina, para buscar estratégias de negociação lucrativas.

  • 00:40:00 O palestrante discute a importância da tecnologia no trading quantitativo. O uso de ferramentas como R e MATLAB pode melhorar significativamente a programação matemática e fornecer acesso a uma ampla variedade de bibliotecas que permitem cálculos matemáticos mais rápidos. Ter uma boa caixa de ferramentas de pesquisa comercial é essencial para construir e testar estratégias rapidamente para capturar oportunidades de mercado. A caixa de ferramentas ideal deve permitir que os traders combinem módulos facilmente, executem programação paralela e gerem estatísticas de desempenho sem ter que gastar muito tempo programando. A limpeza de dados também deve ser automatizada e a calibração de parâmetros deve ser feita automaticamente. O foco deve estar na codificação de estratégias em vez de gastar tempo em tarefas de programação mecânica.

  • 00:45:00 Discute-se a importância do uso de uma boa ferramenta para programação. O palestrante menciona que o uso de tecnologias mais recentes, como Java e C#, elimina a necessidade de depuração de problemas como vazamentos de memória e falhas de segmentação, o que aumenta significativamente a produtividade. Além disso, a turma inicia uma sessão prática de laboratório em que explora um experimento de modelo de Markov, e o palestrante orienta os participantes no processo de copiar e colar o código do site em suas lixeiras para execução. A classe inclui participantes com experiência em programação, portanto, eles ignoram os fundamentos da programação Java.

  • 00:50:00 O palestrante explica como corrigir a entrada de um programa Java corrigindo as importações usando o comando ctrl shift i. Ele então demonstra como a programação matemática pode ser feita em Java usando a biblioteca algo quant e mostra um modelo de cadeia de markov simples que pode ser executado em um novo pacote e classe. O palestrante incentiva os participantes a fazerem perguntas e garante que todos possam acompanhar a demonstração.

  • 00:55:00 O palestrante aborda algumas dúvidas técnicas da plateia sobre como baixar e executar o código utilizado na palestra. Ele passa a demonstrar a versão clássica de Hidden Markov Chain usando a função webinar, para a qual ele mantém apenas pi a1 e b1, e exclui o outro código.

Parte 2

  • 01:00:00 O palestrante explica o modelo de dois estados com probabilidades de transição, que é um exemplo simples de cadeia de Markov. Ele ilustra as probabilidades de transição em um diagrama visual e explica a probabilidade de observar certos valores em cada estado. O palestrante explica como uma cadeia de Markov é essencialmente um gerador de números aleatórios e demonstra como simular essa cadeia de Markov específica para gerar observações.

  • 01:05:00 O palestrante explica o conceito de uma cadeia de Markov e como ela é usada como um gerador de números aleatórios para gerar observações de preços de ações. As probabilidades de estado inicial e as probabilidades de transição de uma cadeia de Markov de dois estados são dadas como exemplo, mas em situações da vida real, esses parâmetros precisam ser estimados com base em observações. O palestrante demonstra como estimar esses parâmetros usando o algoritmo de cadeia de Markov oculto de modelos de webinar para estimativa de parâmetros. O modelo estimado pode então ser comparado com o modelo real para precisão.

  • 01:10:00 O palestrante discute a importância de estimar parâmetros na negociação quantitativa. Ele observa que, na realidade, apenas preços ou retornos são observados, e o verdadeiro modelo é desconhecido, então a melhor opção é estimar os parâmetros do modelo. Ele menciona um bom algoritmo para estimar os parâmetros, o algoritmo do webinar, que se aproxima dos modelos reais e é útil para negociação. O palestrante incentiva o público a experimentar a criação de seus próprios modelos de cadeia de Markov, alterando os parâmetros, gerando diferentes observações e realizando várias estimativas para entender como eles correspondem aos valores verdadeiros sob diferentes condições.

  • 01:15:00 O palestrante discute uma próxima discussão ao vivo sobre modelagem e programação de markov, convidando perguntas e compartilhamento de tela durante a discussão. A tarefa em mãos é gerar diferentes observações usando um modelo de markov pessoal e estimar diferentes parâmetros para verificar se o modelo estimado corresponde ao modelo real. O objetivo é determinar o quão bom é o modelo do mercado, já que, em última análise, os traders dependem dele. O palestrante incentiva a adição de valores extremos e cenários de estresse para ver como a cadeia de markov se comporta.

  • 01:35:00 O instrutor e os alunos do curso discutem detalhes técnicos relacionados a licenciamento e experimentos. O instrutor aconselha um aluno a substituir sua licença de longo prazo por uma recém-baixada e sugere experimentar diferentes parâmetros para determinar o ponto em que os modelos estimados são úteis para fins de treinamento em negociação quantitativa. Outros alunos relatam problemas com experimentos e licenciamento, que são abordados em detalhes.

  • 01:40:00 O palestrante incentiva o público a criar sua própria cadeia de Markov e experimentar as probabilidades de transição. Eles sugerem usar um modelo de dois estados para um modelo de três estados e usar criatividade e imaginação para criar probabilidades de transição incomuns, como zero ou um "estado de sincronização" em que não é possível fazer a transição depois de entrar. O palestrante enfatiza a importância da criatividade e imaginação na negociação quantitativa e sugere usá-los para ver como o procedimento de estimativa se comporta com cadeias de Markov de mudança de fase única.

  • 01:45:00 O palestrante discute a importância da comunicação e colaboração na negociação quantitativa, especificamente ao conduzir experimentos e analisar dados. Eles enfatizam a necessidade de os membros da equipe verificarem constantemente uns aos outros e fornecerem atualizações sobre seu progresso, observando que os indivíduos podem ter abordagens ou ideias diferentes para o mesmo problema. O palestrante também menciona a possibilidade de usar modelos de Markov de ordem superior em seus experimentos e pergunta se alguém já explorou essa opção.

  • 01:50:00 O palestrante discute a importância de gerar casos de teste para verificar se o modelo estimado corresponde ao modelo real. O modelo real é aquele que é usado para gerar observações enquanto o modelo estimado é criado a partir das observações. O experimento visa determinar se o modelo estimado é próximo o suficiente do modelo real. O palestrante sugere a geração de diferentes casos de teste para ver o desempenho da estimativa e destaca a importância de testar com um número menor de observações.

  • 01:55:00 O palestrante discute os desafios de estimar com precisão modelos quantitativos de negociação com observações limitadas. Note-se que, em estatística, os algoritmos são centrados na convergência, o que significa que a estimativa se torna mais precisa à medida que o número de observações aumenta. No entanto, o palestrante enfatiza que é difícil determinar o quão próximo um modelo está da realidade, pois você só tem o modelo estimado e não os valores reais. Além disso, é introduzido o conceito de calcular a probabilidade de gerar valores observados com um determinado modelo, que é um aspecto crucial da estimativa de máxima verossimilhança.

Parte 3

  • 02:00:00 O palestrante discute os desafios de estimar probabilidades em um modelo de dois estados com dados limitados. A estimativa das probabilidades de transição é imprecisa quando há apenas 100 observações. No entanto, com 10.000 observações, a precisão aumenta, mas o problema permanece porque a maioria dos ativos não dura 40 anos, que é a quantidade de dados necessária para tantas observações. O modelo de dois estados tem 12 parâmetros e, à medida que o número de parâmetros aumenta, mais dados são necessários para uma estimativa precisa. Portanto, é essencial ter uma grande quantidade de dados para estimar probabilidades com precisão, o que não é prático na negociação, principalmente na construção de modelos complexos. O palestrante recomenda construir modelos de 3 ou 4 estados ou aumentar o número de observações para superar esse desafio.

  • 02:05:00 O palestrante discute a dificuldade de estimar modelos de cadeia de Markov em negociações quantitativas. Aumentar o número de variáveis torna o processo de estimativa ainda mais difícil, e usar uma família paramétrica de distribuições em vez de especificar operações como essa pode reduzir significativamente o número de parâmetros. No entanto, o algoritmo Baum-Welch, que é usado para treinar um modelo de Markov oculto contínuo (HMM), pode ser um desafio. O palestrante então passa a discutir o próximo experimento: backtesting.

  • 02:10:00 A demonstração apresentada simula um cruzamento de média móvel simples na ação XOM, e o programa está configurado para baixar dados sobre a ação do Yahoo e simular negociações de 1990 a 2012. A estrutura de como configurar o fonte de dados é explicada, com o plug-in de fonte de dados do Yahoo sendo o mais fácil e simples de usar para aqueles que não têm acesso a fontes de dados profissionais. Esta demonstração fornece um exemplo útil de como programar e testar estratégias de negociação.

  • 02:15:00 O palestrante explica o processo de criação de estratégias, simuladores e todos os livros necessários para rodar uma simulação. O exemplo dado é uma estratégia de cruzamento de média móvel que envolve calcular a média móvel mais rápida usando os últimos 20 dias de dados e a média móvel mais lenta usando os últimos 250 dias de dados. O palestrante observa que é possível examinar o código-fonte para a implementação da estratégia, simulador e plotters comerciais no AlgoQuant, que é um software de código aberto. Além disso, o palestrante explica que a acessibilidade aberta do software permite que os usuários verifiquem seu código de forma independente e façam modificações para personalização. Por fim, o palestrante explica que existem várias medidas que podem ser usadas para análise de desempenho, incluindo lucros e perdas, índice de informações, índice de Sharpe, redução máxima, exposição em massa e ômega.

  • 02:20:00 O palestrante demonstra como usar diferentes analisadores de desempenho em Lwan para calcular diferentes medidas, como rebaixamento, e gerar um relatório sobre o desempenho da estratégia. O código escuta eventos importantes, como atualizações de preços, e gera novos pedidos com base nas informações mais recentes. O palestrante sugere o uso do depurador para entender melhor o comportamento do código e ver como ele responde às atualizações de preços e gera pedidos.

  • 02:25:00 O palestrante demonstra como usar um depurador para monitorar uma estratégia de negociação e observar cruzamentos como sinais. Ele explica como colocar um ponto de interrupção e parar quando ocorre um sinal de cruzamento real, mostrando um exemplo em que a média móvel mais rápida cruza acima da média móvel mais lenta. A estratégia então entra em posição comprada, comprando uma unidade do produto XOM ao preço de mercado. Mais tarde, quando a média móvel mais rápida cruza abaixo da média móvel mais lenta, a estratégia entra em uma posição vendida, vendendo duas unidades de XOM ao preço de mercado. O palestrante mostra um gráfico da ordem de compra e explica a diferença entre comprar na ordem de mercado e colocar uma ordem limitada acionada por um preço desejado.

  • 02:30:00 O palestrante repassa uma simulação de uma estratégia simples de cruzamento de média móvel em AlgoQuant. Eles demonstram como usar dados históricos para gerar sinais de compra e venda e calcular ordens para manter uma posição desejada. A estratégia escuta os sinais de atualização do desenvolvedor e se inscreve no sinal do livro de pedidos para esta tarefa. O palestrante observa que, embora o teste histórico não seja suficiente, é um bom ponto de partida, e o cruzamento de média móvel simples pode ser generalizado para outros cenários. Eles também mencionam que uma estratégia é apenas uma função e mostram a matemática para calcular a ordem.

  • 02:35:00 O palestrante discute a importância da simulação e da experimentação ao tentar criar uma estratégia de negociação usando análise matemática. Ele demonstra o uso de uma estratégia GMA21, que já foi comprovada matematicamente, mas produz resultados desfavoráveis quando testada por simulação devido aos custos de transação. O palestrante enfatiza a importância do software e da programação na experimentação e no ajuste fino das estratégias de negociação para evitar perdas em cenários comerciais do mundo real, destacando que diferentes parâmetros podem ser testados para diferentes ações para encontrar a estratégia mais eficaz.

  • 02:40:00 O palestrante discute a importância da experimentação para confirmar as previsões teóricas na negociação quantitativa. Os alunos são incentivados a usar o software fornecido para experimentar diferentes números e criar suas próprias estratégias de negociação. O palestrante orienta os alunos na implementação de uma estratégia gma21, que compra quando o preço atual é maior que o último preço e vende quando o preço atual é menor que o último preço, ilustrando como calcular pedidos e enviá-los aos corretores para execução. Os alunos são então encarregados de criar suas próprias estratégias e experimentá-las em dados históricos.

  • 02:45:00 O palestrante apresenta a estratégia de negociação mais simples que pode ser facilmente implementada, tornando-a uma solução plug-and-play. O orador convida o público a fazer perguntas e os encoraja a entrar em contato caso precisem de mais esclarecimentos.

  • 02:55:00 O palestrante discute um caso especial da média móvel geométrica, que é quando M é igual a um. Este caso simplifica a estratégia de comparar apenas os retornos atuais com zero e, embora essa estratégia não necessariamente gere dinheiro, ela serve como um bom exemplo para fins educacionais. O palestrante incentiva o público a concluir o exercício desta estratégia offline para que se sintam confortáveis com a codificação e teste usando o sistema algocoin para os próximos exercícios de matemática e programação.
Introduction to Quantitative Trading - Lecture 2/8
Introduction to Quantitative Trading - Lecture 2/8
  • 2013.10.03
  • www.youtube.com
http://en.cqi.sg/introduction-to-quantitative-investment-201310/This course introduces students to quantitative trading. A "quant" portfolio manager or a tra...
 

Playground de engenharia financeira: processamento de sinal, estimativa robusta, Kalman, otimização



Playground de engenharia financeira: processamento de sinal, estimativa robusta, Kalman, otimização

Neste vídeo cativante, Daniel Palomar, professor do departamento de engenharia elétrica, eletrônica e de computação da HKUST, lança luz sobre as amplas aplicações do processamento de sinais no campo da engenharia financeira. Palomar dissipa o equívoco em torno da engenharia financeira e enfatiza a onipresença das técnicas de processamento de sinais nesse campo. Ele destaca a relevância de vários tópicos, como teoria da matriz aleatória, filtros de partículas, filtros de Kalman, algoritmos de otimização, aprendizado de máquina, aprendizado profundo, otimização estocástica e restrições de chance.

A Palomar investiga as propriedades distintas dos dados financeiros, conhecidos como fatos estilizados, que permanecem consistentes em diferentes mercados. Ele explica como os engenheiros financeiros empregam retornos em vez de preços para modelar o mercado de ações. Os retornos lineares e logarítmicos, apesar de suas pequenas diferenças, são amplamente utilizados devido à pequena magnitude dos retornos. Esses retornos são analisados para determinar sua estacionariedade, sendo a não estacionariedade uma característica proeminente dos dados financeiros. O palestrante também aborda outros fatos estilizados, como distribuições de cauda pesada, assimetria em retornos de baixa frequência e o fenômeno de agrupamento de volatilidade.

A importância de modelar retornos de ações em finanças é enfatizada, com foco particular na volatilidade. Palomar traça paralelos entre o sinal de retorno e um sinal de fala, explorando possíveis colaborações entre modelagem financeira e processamento de sinal de fala. Diferentes regimes de frequência na modelagem, incluindo modelagem de alta frequência, são discutidos, destacando os desafios impostos pela necessidade de dados em tempo real e poderosos recursos de computação.

Também são examinadas as limitações dos modelos que se concentram apenas em modelar retornos sem considerar a covariância ou variância dos retornos. O palestrante enfatiza a importância de capturar as informações e a estrutura fornecidas pelos modelos de covariância e variância, que podem permitir uma tomada de decisão mais lucrativa. Palomar introduz o conceito de modelagem da variância e covariância dos retornos usando um resíduo composto de um termo aleatório normalizado e um termo de envelope capturando a covariância dos resíduos. No entanto, modelar um resíduo multivariado com uma grande matriz de coeficientes requer modelos mais sofisticados.

O vídeo explora os desafios de estimar parâmetros diante de dados limitados e uma abundância de parâmetros, que podem levar ao overfitting. Para resolver isso, a dispersão de classificação baixa é introduzida como um meio de analisar o modelo Vega e formular restrições. Palomar discute o conceito de robustez e a inadequação de assumir uma distribuição gaussiana para engenharia financeira devido a caudas pesadas e pequenos regimes de amostra. Ele explica que os estimadores de amostra tradicionais baseados na distribuição gaussiana produzem resultados abaixo da média, necessitando de reformulação sem tais suposições. Técnicas como encolhimento e regularização são apresentadas como meios eficazes de lidar com caudas pesadas, com sua implementação bem-sucedida em finanças e comunicações.

A estimativa robusta, uma ferramenta usada em finanças para melhorar a precisão, apesar dos valores discrepantes, é explorada. O palestrante apresenta distribuições elípticas para modelar distribuições de cauda pesada e explica como os pesos podem ser calculados para cada amostra usando um método iterativo. O estimador de Tyler, que normaliza amostras e estima a função de densidade de probabilidade (PDF) da amostra normalizada, é discutido como um meio de remover a forma da cauda. O estimador de Tyler, em combinação com estimadores robustos, aumenta a precisão da estimativa da matriz de covariância. A inclusão de termos de regularização e o desenvolvimento de algoritmos contribuem ainda mais para observações e estimativas aprimoradas de matrizes de covariância.

Palomar investiga conceitos financeiros como estimativa de Wolfe, estimativa de Tyler e cointegração. Embora a estimativa de Wolfe represente uma melhoria significativa, ela ainda depende da suposição de uma distribuição gaussiana. A estimativa de Tyler, uma alternativa atraente, requer um número suficiente de amostras para modelos com múltiplas dimensões. A cointegração, um conceito crucial em finanças, sugere que prever o preço relativo de duas ações pode ser mais fácil do que prever preços individuais, abrindo oportunidades para negociação de pares. A distinção entre correlação e cointegração é explorada, com correlação focando em variações de curto prazo e cointegração pertencente ao comportamento de longo prazo.

O vídeo revela o conceito de uma tendência comum e sua relação com a negociação de spread. A tendência comum é descrita como um passeio aleatório compartilhado por duas ações que possuem um componente comum. Ao subtrair a tendência comum do spread entre os preços das ações, os traders obtêm um resíduo com média zero, que serve como um indicador confiável de reversão à média. Esta propriedade torna-se fundamental nas estratégias de negociação de spread. O palestrante explica que, ao definir limites no spread, os traders podem identificar situações de subavaliação e capitalizar a recuperação do preço, lucrando com a diferença de preço. Estimar o parâmetro gama e identificar estoques co-integrados são etapas essenciais nesse processo, que podem ser realizadas por meio de técnicas como mínimos quadrados.

O palestrante aprofunda o papel do filtro de Kalman em cenários onde uma mudança no regime leva à perda da cointegração devido à variação do gama. A adaptabilidade do filtro de Kalman a essas variações é destacada por meio de uma comparação com métodos de mínimos quadrados e de mínimos quadrados rolantes. É demonstrado que o filtro de Kalman supera as demais técnicas, pois mantém um tracking constante em torno de zero, enquanto os mínimos quadrados apresentam flutuações que resultam em perdas ao longo do tempo. Assim, o palestrante recomenda o emprego do filtro de Kalman para estimativa robusta em engenharia financeira.

Uma comparação entre o desempenho dos modelos de mínimos quadrados e do filtro de Kalman é apresentada, confirmando a eficácia do método de Kalman na engenharia financeira. O orador então se aprofunda na aplicação de modelos ocultos de Markov para detectar regimes de mercado, permitindo que os comerciantes ajustem suas estratégias de investimento com base nas condições de mercado predominantes. A otimização de portfólio é introduzida como um conceito fundamental, envolvendo o desenho de portfólios que equilibram o retorno esperado e a variação do retorno do portfólio. O palestrante traça paralelos entre otimização de portfólio e modelos de filtragem linear e formação de feixe, pois eles compartilham modelos de sinal semelhantes.

O vídeo discute como as técnicas de comunicação e processamento de sinais podem ser aplicadas às finanças. O conceito de relação sinal-ruído em comunicação é comparado ao índice de Sharpe em finanças, que mede a relação entre o retorno do portfólio e a volatilidade. O palestrante apresenta o portfólio de Markowitz, que busca maximizar o retorno esperado enquanto minimiza a variação. No entanto, devido à sua sensibilidade a erros de estimativa e à dependência da variância como medida de risco, a carteira de Markowitz não é amplamente utilizada na prática. Para resolver isso, podem ser empregadas técnicas de dispersão do processamento de sinal, particularmente no rastreamento de índice, onde apenas um subconjunto de ações é usado para rastrear um índice, em vez de investir em todas as ações constituintes. O palestrante propõe melhorias nas técnicas de esparsidade na redução de erros de rastreamento.

O vídeo aprofunda o conceito de "comércio de bolsa" e destaca o papel das carteiras na negociação. Usando o modelo de valor em risco (VaR), o palestrante explica como a negociação de carteira pode ser alcançada construindo uma carteira de duas ações com pesos específicos. A matriz PI e a matriz beta são introduzidas como ferramentas que fornecem um subespaço de spreads de reversão à média, permitindo a arbitragem estatística. A incorporação da matriz beta na otimização facilita a identificação da direção ótima dentro do subespaço, resultando em resultados superiores em comparação ao uso de beta sozinho. O palestrante também menciona seu livro, "A Signal Processing Perspective on Financial Engineering", que serve como ponto de entrada para profissionais de processamento de sinais interessados na área de finanças.

Perto da conclusão do vídeo, são exploradas diferentes abordagens de negociação em engenharia financeira. O palestrante distingue entre estratégias que capitalizam pequenas variações e tendências e aquelas que se concentram na exploração do ruído. Essas duas famílias de estratégias de investimento oferecem caminhos distintos para gerar lucros. O palestrante também aborda os desafios impostos pela falta de dados para aplicar técnicas de aprendizado profundo em finanças, já que o aprendizado profundo normalmente requer quantidades substanciais de dados, que podem ser limitadas em contextos financeiros. Além disso, o conceito de estimar dimensões vetoriais para mais de dois estoques é discutido, com o palestrante fornecendo informações sobre várias abordagens.

No segmento final, o palestrante aborda a questão do domínio do mercado por grandes empresas e seu impacto no mercado financeiro. O palestrante destaca o potencial de influência que grandes empresas com recursos financeiros significativos podem ter quando fazem investimentos substanciais. Essa concentração de poder levanta considerações importantes para a dinâmica do mercado e o comportamento de outros participantes do mercado.

O vídeo aborda brevemente o tema da execução de ordens em finanças. Ele explica que, ao lidar com grandes pedidos, é prática comum quebrá-los em partes menores e executá-los gradualmente para evitar perturbações no mercado. Esse aspecto das finanças envolve técnicas de otimização intrincadas e geralmente se baseia em princípios da teoria de controle. O palestrante enfatiza a natureza matemática da execução de ordens e menciona a existência de inúmeros trabalhos acadêmicos sobre o assunto.

À medida que o vídeo se aproxima do final, o orador convida o público a colocar mais questões durante o intervalo para o café, reconhecendo a sua presença e participação. O vídeo serve como um recurso valioso, fornecendo informações sobre a aplicação do processamento de sinais na engenharia financeira. Ele oferece perspectivas para melhorar as estimativas, otimizar portfólios e detectar regimes de mercado por meio das técnicas de processamento de sinais.

No geral, o vídeo fornece uma visão abrangente das várias aplicações do processamento de sinais na engenharia financeira. Ele enfatiza a importância de modelar retornos de ações, variância e covariância em finanças, abordando os desafios de estimativa de parâmetros, superajuste e as limitações dos modelos financeiros tradicionais. Os conceitos de estimativa robusta, cointegração, otimização de portfólio e técnicas de dispersão são discutidos em detalhes. Ao destacar os paralelos entre comunicação e processamento de sinal em finanças, o palestrante destaca a relevância e o potencial de colaboração entre esses dois domínios. O vídeo conclui lançando luz sobre estratégias de negociação, aprendizado de máquina em finanças e a importância da dinâmica de mercado influenciada por grandes empresas.

  • 00:00:00 Daniel Palomar, professor do departamento de engenharia elétrica, eletrônica e de computação da HKUST, discute o tema da engenharia financeira e como há um equívoco sobre o que é. Palomar explica que o processamento de sinal está em toda parte dentro da engenharia financeira, e vários tópicos, como teoria da matriz aleatória, filtro de partículas, filtro de Kalman, algoritmos de otimização, aprendizado de máquina, aprendizado profundo, otimização estocástica e restrições de chance são relevantes. Ele também aborda fatos estilizados sobre dados financeiros e explica que os dados financeiros têm propriedades especiais que são consistentes em diferentes mercados.

  • 00:05:00 O vídeo explica como os engenheiros financeiros modelam o mercado de ações usando retornos em vez de preços. Existem dois tipos de retornos: retornos lineares e logarítmicos, mas são quase iguais, pois os retornos geralmente são números pequenos. Os retornos podem ser plotados para ver se são estacionários ou não, e o fato estilizado das finanças é sua não estacionariedade. Outros fatos estilizados incluem caudas pesadas, o que significa que as caudas do histograma histórico de retornos são pesadas, não finas como uma distribuição gaussiana. Os engenheiros financeiros também precisam modelar a assimetria, especialmente em baixas frequências de retornos. Por fim, o vídeo explica o conceito de agrupamento de volatilidade e sua importância na modelagem financeira.

  • 00:10:00 O palestrante discute a importância de modelar retornos de ações em finanças. Eles explicam que a volatilidade desempenha um papel crucial na modelagem, particularmente na modelagem do desvio padrão, ou envelope, do sinal de retorno. O palestrante observa que o sinal de retorno se parece com um sinal de fala e pondera se existe sobreposição suficiente entre a modelagem financeira e o processamento do sinal de fala para inspirar a colaboração. Diferentes regimes de frequência existem na modelagem e a modelagem de alta frequência, em particular, requer assinaturas caras e computadores poderosos devido à grande quantidade de dados de tempo crítico. A seção conclui mencionando diferentes modelos de modelagem financeira, como o modelo IID e o modelo fatorial, e aborda a importância de entender as correlações no tempo na modelagem.

  • 00:15:00 O palestrante discute as limitações dos modelos financeiros que focam apenas na modelagem de retornos e não na covariância ou variância dos retornos. Eles explicam que, ao olhar apenas para os retornos, você pode estar perdendo informações e estrutura que outras pessoas podem capturar para ganhar dinheiro. O palestrante então apresenta a ideia de modelar a variância e a covariância dos retornos usando um resíduo composto por dois fatores: um termo aleatório normalizado com variância unitária e um termo de envelope que captura a covariância dos resíduos. Eles observam que os modelos para o resíduo escalar estão bem estabelecidos, mas a modelagem de um resíduo multivariado com um coeficiente de matriz de 500 por 500 requer modelos muito mais complexos.

  • 00:20:00 O palestrante explica os desafios de estimar parâmetros com poucos dados e muitos parâmetros, levando ao overfitting. Para resolver este problema, é necessário impor esparsidade de rank baixo para analisar o modelo Vega e formular algumas restrições. O palestrante introduz o conceito de robustez, onde consideramos que a distribuição Gaussiana não é adequada para engenharia financeira por causa de caudas pesadas e regimes amostrais pequenos. Os estimadores de amostra tradicionais baseados na distribuição gaussiana resultam em estimadores com baixo desempenho. Para resolver esse problema, precisamos reformular tudo sem assumir uma distribuição gaussiana, e as caudas pesadas podem ser tratadas por métodos de encolhimento ou regularização, que têm sido usados em vários setores, incluindo finanças e comunicações.

  • 00:25:00 O palestrante discute a estimativa robusta, que é uma ferramenta usada em finanças para fazer estimativas mais precisas, apesar de vários valores discrepantes nos dados. O palestrante explica que distribuições elípticas podem ser usadas para modelar distribuições de cauda pesada, e os pesos de cada amostra podem ser calculados por meio de um método iterativo. Além disso, o palestrante explica o estimador de Tyler, que normaliza amostras e estima o PDF da amostra normalizada para que a forma da cauda seja removida. Esse estimador pode ser usado juntamente com estimadores robustos para fornecer uma estimativa mais precisa das matrizes de covariância. O palestrante então explica como os termos de regularização podem ser incluídos e os algoritmos podem ser desenvolvidos para obter uma melhor compreensão das observações, com um gráfico representado para mostrar o erro na estimativa de matrizes de covariância em relação ao número de amostras.

  • 00:30:00 O palestrante discute conceitos financeiros como estimativa de Wolfe, estimativa de Tyler e cointegração. A estimativa de Wolfe é uma grande melhoria, mas ainda assume a distribuição gaussiana. A estimativa de Tyler é uma boa alternativa, mas requer pelo menos 40 amostras para um modelo de 14 dimensões. A cointegração, um conceito específico em finanças, é a ideia de que o preço relativo de duas ações pode ser mais fácil de prever do que os preços individuais, permitindo que os traders ganhem dinheiro por meio da negociação de pares. A diferença entre correlação e cointegração é que a correlação é sobre variações de curto prazo, enquanto a cointegração é mais sobre o comportamento de longo prazo. O palestrante ilustra esses conceitos com várias plotagens e gráficos.

  • 00:35:00 O palestrante explica o conceito de tendência comum e como ela se relaciona com a negociação de spread. A tendência comum é um passeio aleatório que duas ações com um componente comum compartilham. Ao subtrair a tendência comum do spread entre os preços das ações, o trader fica com um resíduo de média zero, tornando-o um bom indicador de reversão à média, propriedade que pode ser usada para negociação de spread. O trader estabelece dois limites no spread e compra quando está subvalorizado e vende quando se recupera, ganhando dinheiro com a diferença. Os mínimos quadrados podem ser usados para estimar o gama, mas requer encontrar os dois estoques que são cointegrados e o valor do gama. O palestrante mostra um exemplo de um cenário real de negociação de spread.

  • 00:40:00 O palestrante explica como o Kalman entra quando há mudança de regime e a cointegração é perdida devido à mudança de gama, e como ele se adapta a essas variações. O palestrante usa dois estoques como exemplo para comparar o rastreamento do MU e gama usando mínimos quadrados, Kalman e mínimos quadrados rolantes, e conclui que Kalman funciona melhor. A linha verde para rastreamento de Kalman fica em torno de zero, enquanto a linha preta para mínimos quadrados sobe e desce, causando perda de dinheiro por um período de dois anos. Portanto, o palestrante sugere o uso de Kalman para estimativa robusta em engenharia financeira.

  • 00:45:00 O palestrante compara o desempenho dos modelos de mínimos quadrados e de treinamento de Kalman e conclui que o método de Kalman funciona bem em engenharia financeira, enquanto o modelo de mínimos quadrados diminui a partir de um certo ponto. Ele discute o uso de modelos ocultos de Markov na detecção de regimes de mercado, o que ajuda a mudar as estratégias de investimento, dependendo se o mercado está em bom ou mau estado. Além disso, ele explora o conceito de otimização de portfólio e explica que os portfólios são vetores com pesos que informam aos investidores quanto dinheiro investir em uma ação. O retorno esperado e a variação do retorno do portfólio também são fatores-chave usados para projetar portfólios. O alto-falante faz uma comparação com modelos de filtragem linear e beamforming, que usam modelos de sinal semelhantes para otimização de portfólio.

  • 00:50:00 O palestrante discute como as técnicas de comunicação e processamento de sinais podem ser aplicadas às finanças. O conceito de relação sinal-ruído em comunicações é semelhante ao índice de Sharpe em finanças, que é uma relação entre o retorno do portfólio e a volatilidade. A otimização de portfólio, especificamente o portfólio de Markowitz, que envolve maximizar o retorno esperado e minimizar a variância, é apresentada como um problema convexo simples. O palestrante também observa que o portfólio de Markowitz não é usado com frequência na prática devido à sua sensibilidade a erros de estimativa e à dependência da variância como medida de risco. No entanto, as técnicas de dispersão do processamento de sinais podem ser aplicadas ao rastreamento de índices, onde, em vez de comprar centenas de ações para rastrear um índice, apenas um subconjunto de ações é usado. Por fim, o palestrante propõe uma melhoria nas técnicas de esparsidade no rastreamento de erros.

  • 00:55:00 O palestrante discute "comércio de bolsa" e o uso de carteiras na negociação. Usando o modelo VaR (valor em risco), o palestrante explica como a negociação de carteira pode ser feita com duas ações e uma carteira de dois componentes com peso um e menos gama. O palestrante então apresenta a matriz PI e a matriz beta, que fornecem um subespaço de spreads de reversão à média que podem ser usados para arbitragem estatística. O uso da matriz beta na otimização ajuda a encontrar a melhor direção dentro do subespaço e produz melhores resultados do que apenas usar o beta mágico sozinho. O palestrante também promove seu livro, "A Signal Processing Perspective on Financial Engineering", que é um ponto de entrada para pessoas interessadas em processamento de sinais na área de finanças.

  • 01:00:00 O palestrante discute diferentes abordagens para negociação em engenharia financeira, incluindo negociação no spread usando o final da tendência de preço e pequenas variações. Ele explica que existem duas famílias de estratégias de investimento: as que ganham dinheiro com base na tendência e pequenas variações, e as que ganham dinheiro com o ruído, ignorando a tendência ao formar um spread. O palestrante também discute o aprendizado de máquina em finanças e explica que a falta de dados representa um problema para o uso do aprendizado profundo em finanças, pois o aprendizado profundo requer uma grande quantidade de dados, que geralmente é limitado em finanças. Finalmente, ele discute a noção de cointegração e explica as diferentes abordagens para estimar as dimensões do vetor para mais de dois estoques.

  • 01:05:00 O palestrante discute a questão das grandes empresas terem muito dinheiro, o que pode movimentar o mercado quando elas investem. Eles também mencionam o tópico de execução de pedidos em finanças, onde grandes pedidos são cortados em pequenos pedaços e enviados lentamente para evitar perturbações no mercado. Este ramo das finanças envolve muita otimização e pode ser muito matemático, com muitos artigos sobre o tema na teoria de controle. O palestrante sugere tirar mais dúvidas no intervalo para o café e agradece a presença do público.
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, Optimization
  • 2019.10.31
  • www.youtube.com
Plenary Talk by Prof. Daniel P Palomar on "Financial Engineering Playground: Signal Processing, Robust Estimation, Kalman, HMM, Optimization, et Cetera"Plen...
 

"Kalman Filtering with Applications in Finance" por Shengjie Xiu, curso tutorial 2021



"Kalman Filtering with Applications in Finance" por Shengjie Xiu, curso tutorial 2021

No vídeo intitulado "Filtragem de Kalman com aplicações em finanças", é explorado o conceito de modelos baseados em estado e sua aplicação em finanças. O palestrante apresenta o filtro de Kalman como uma técnica versátil para prever o estado de um sistema com base em observações anteriores e corrigir a previsão usando observações atuais. O vídeo também aborda o Common Smoother e o algoritmo EM, que são usados para analisar dados históricos e aprender os parâmetros de um modelo baseado em estado para finanças.

O vídeo começa ilustrando o conceito de modelos baseados em estado usando o exemplo de um carro dirigindo ao longo de um eixo com posições ocultas. O apresentador explica como os modelos baseados em estado consistem em matrizes de transição e observação que mapeiam o estado no espaço observado. Esses modelos podem lidar com vários estados ou posições de gravação de sensores simultaneamente. O estado oculto segue uma propriedade de Markov, levando a uma forma elegante de probabilidade.

O palestrante então se aprofunda no algoritmo do filtro de Kalman e sua aplicação em finanças. O algoritmo envolve etapas de predição e correção, onde a incerteza é representada pela variância de uma função gaussiana. O ganho comum, que determina o peso entre a predição e a observação, é destacado como fator crucial. A simplicidade e eficiência computacional do filtro de Kalman são enfatizadas.

Um experimento comparando a confiabilidade dos dados do GPS e do odômetro na previsão da localização de um carro é discutido, demonstrando a eficácia do filtro de Kalman mesmo quando certas fontes de dados não são confiáveis. No entanto, nota-se que o filtro de Kalman é projetado para modelos lineares gaussianos estabilizados, o que limita sua aplicabilidade.

O vídeo também apresenta o Common Smoother, que oferece um desempenho mais suave do que o Common Filter e resolve o problema de tendência descendente do filtro. A necessidade de treinar parâmetros em finanças e o conceito de parâmetros variantes no tempo são discutidos. O algoritmo Expectation-Maximization (EM) é apresentado como um meio de aprender os parâmetros quando os estados ocultos são desconhecidos.

O palestrante explica o algoritmo EM, que consiste no passo E e passo M, para calcular as distribuições posteriores de estados latentes e otimizar a função objetivo para estimativa de parâmetros. A aplicação do modelo baseado em estado em finanças, especificamente para a decomposição do volume de negociação intradia, é destacada.

Várias variantes do filtro de Kalman, como o filtro de Kalman estendido e o filtro de Kalman sem cheiro, são mencionadas como soluções para lidar com funcionalidade não linear e ruído. Filtros de partículas são introduzidos como um método computacional para modelos complexos que não podem ser resolvidos analiticamente.

O vídeo termina discutindo as limitações das soluções analíticas e a necessidade de métodos computacionais como os métodos de Monte Carlo. O palestrante reconhece a natureza exigente desses processos, mas destaca os aspectos fascinantes da filtragem de Kalman.

No geral, o vídeo fornece uma exploração aprofundada de modelos baseados em estado, o filtro de Kalman e suas aplicações em finanças. Abrange os conceitos fundamentais, etapas algorítmicas e considerações práticas, além de mencionar variantes avançadas e métodos computacionais. O palestrante destaca a relevância e o poder dos modelos baseados em estado em revelar informações ocultas e enfatiza os avanços contínuos no campo.

  • 00:00:00 O apresentador do vídeo apresenta o conceito de modelos baseados em estado usando um exemplo simples de um carro dirigindo ao longo de um eixo com posições ocultas denotadas como "eixo z". Os estados ocultos, denotados como "jt" no tempo t, são desconhecidos do observador, assim como no mercado de ações onde o estado do mercado está oculto. O apresentador descreve dois modelos relacionados a modelos baseados em estado, o filtro comum e o suavizador comum, e como aprender os parâmetros dentro do modelo baseado em estado automaticamente. Finalmente, o vídeo discute as aplicações de modelos baseados em estado em finanças. A equação de estado e a equação de observação são introduzidas, onde o estado depende apenas do nó anterior e cada observação depende de estados ocultos relevantes.

  • 00:05:00 O palestrante explica os modelos baseados em estado e como eles consistem em matrizes de transição e observação que mapeiam o estado no espaço observado, que pode ser diferente. O estado e a observação podem ser vetores com múltiplos estados ou sensores registrando a posição simultaneamente, o que permite uma forma mais genérica. O estado oculto segue uma propriedade de Markov, que leva a uma forma elegante de probabilidade. O palestrante esclarece os conceitos de previsão, filtragem e suavização e como eles se combinam para criar o algoritmo direto no filtro de Kalman. O filtro de Kalman é composto por dois componentes: predição e correção, e foi projetado pela primeira vez por Kalman e usado no projeto Apollo para rastrear espaçonaves. Agora é amplamente utilizado em muitas áreas, incluindo previsão de séries temporais em finanças.

  • 00:10:00 O algoritmo de Filtragem de Kalman é apresentado e sua aplicação em finanças é discutida. O algoritmo envolve prever o estado de um sistema com base em observações anteriores e, em seguida, corrigir a previsão usando observações atuais. A incerteza na previsão é representada pela variância de uma função Gaussiana, e a correção é feita multiplicando as distribuições Gaussianas de previsão e observação. Ressalta-se a importância do ganho comum, que determina o peso entre a predição e a observação. O algoritmo se mostra bastante simples e envolve apenas algumas linhas de código.

  • 00:15:00 O palestrante discute um experimento em que a confiabilidade do GPS e do odômetro foram comparadas em uma equação de estado. Os resultados mostraram que a abordagem do Filtro de Kalman foi bem-sucedida em prever a localização de um carro, mesmo quando o GPS não era confiável durante trechos específicos da viagem. O palestrante também discutiu os prós e contras do Filtro de Kalman e destacou sua eficiência computacional e o fato de ser amplamente utilizado em aplicações de tempo real. No entanto, uma de suas limitações é que ele é projetado para modelos lineares gaussianos estabilizados. O palestrante também discutiu brevemente o Common Smoother e seu uso na análise de dados históricos.

  • 00:20:00 O desempenho do alisador comum em finanças é apresentado usando o exemplo de um carro passando por um túnel. O suavizador comum fornece um desempenho muito mais suave do que o filtro comum e resolve o problema de tendência descendente do filtro, proporcionando uma melhor aproximação. Antes de executar o suavizador comum, a função de filtro comum direto deve ser implementada. A seção também aborda o conceito de parâmetros em finanças, a necessidade de treiná-los e como eles podem variar no tempo. A teoria da aprendizagem é introduzida, incluindo a estimativa de probabilidade máxima e o algoritmo de maximização de expectativa para encontrar parâmetros quando os estados ocultos são desconhecidos. O algoritmo EM consiste em duas etapas, a etapa de expectativa e a etapa de maximização, para calcular as distribuições posteriores dos estados latentes e o valor esperado do palpite.

  • 00:25:00 O palestrante discute o algoritmo EM e como ele pode ser usado para aprender os parâmetros de um modelo baseado em estado para finanças. O algoritmo consiste em duas etapas: a etapa E, onde a probabilidade posterior é calculada usando o filtro comum e suavizador, e a etapa M, onde a função objetivo é maximizada para encontrar os novos parâmetros estimados. Os parâmetros são continuamente repetidos e otimizados até que converjam. O palestrante também explica como esse modelo pode ser aplicado a finanças, especificamente no que diz respeito à decomposição do volume de negociação intraday, onde os componentes diários e periódicos são separados usando o modelo. O palestrante observa que a implementação do modelo é direta usando pacotes existentes, como marcas em R.

  • 00:30:00 O palestrante discute o modelo de estado usado em finanças, que consiste em um estado oculto com componentes diários e periódicos, e um modelo de observação que combina os termos diários e periódicos para formar o volume de negociação. O modelo é analisado usando um filtro de Kalman e suavizador, e o algoritmo EM é usado para aprender os parâmetros de forma eficiente. O modelo também pode ser usado para previsão de séries temporais, prevendo o futuro período diário e mantendo o mesmo período sazonal. O modelo baseado em estado é útil para encontrar informações ocultas e também pode ser aplicado a outros aplicativos financeiros.

  • 00:35:00 O palestrante discute o poder dos modelos baseados em estado e como eles podem revelar informações ocultas nas observações. O filtro de Kalman é uma técnica versátil e útil que pode ser aplicada em praticamente qualquer área, inclusive financeira. Enquanto o filtro de Kalman é projetado para casos mais fáceis, outras variantes podem ser usadas para modelos mais complicados. O filtro de Kalman estendido e o filtro de Kalman sem cheiro são dois exemplos de variantes que podem lidar com ruído e funcionalidade não linear. Além disso, filtros de partículas são usados quando o modelo é muito complicado para soluções analíticas. Embora o filtro de Kalman tenha sido desenvolvido na década de 1960, ele continua sendo uma solução ótima para o modelo baseado em estado em um caso muito específico, com funções de transição linear e ruído gaussiano.

  • 00:40:00 O palestrante discute as limitações de resolver integrais analiticamente e a necessidade de métodos computacionais pesados, como os métodos de Monte Carlo, para certas tarefas, como filtragem de partículas. Ele observa que isso não era possível no passado, mas agora é graças ao estado atual da tecnologia. O palestrante também menciona que, embora seja um processo exigente, é um tema fascinante, referindo-se à filtragem de Kalman.
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, course tutorial 2021
  • 2021.05.20
  • www.youtube.com
"Kalman Filtering with Applications in Finance" by Shengjie Xiu, tutorial in course IEDA3180 - Data-Driven Portfolio Optimization, Spring 2020/21.This talk g...
 

"Thrifting Alpha: Usando Ensemble Learning Para Revitalizar Fatores Alpha Cansados" por Max Margenot


"Thrifting Alpha: Usando Ensemble Learning Para Revitalizar Fatores Alpha Cansados" por Max Margenot

No vídeo intitulado "Thrifting Alpha: Using Ensemble Learning To Enhance Alpha Factors", Max Margenot, cientista de dados da Quantopian, compartilha suas ideias sobre como alavancar o aprendizado de conjunto para melhorar o desempenho dos fatores alfa. Margenot enfatiza a importância de construir um portfólio combinando sinais independentes, resultando em resultados aprimorados e inovadores. Ele apresenta o conceito de modelagem de fator, aborda as complexidades de avaliar o desempenho do modelo e explora a utilização criativa do aprendizado conjunto para alocação eficiente de ativos.

Margenot começa apresentando o conceito de "alfa econômico", que visa revitalizar fatores alfa desgastados usando o aprendizado conjunto. Fatores alfa representam retornos únicos e interessantes em finanças, diferenciando-os de fatores de risco, como retornos de mercado. O objetivo é criar um portfólio combinando sinais independentes para gerar resultados novos e aprimorados. Ele também fornece uma breve visão geral do modelo de precificação de ativos de capital e explica como o Quantopian serve como uma plataforma gratuita para pesquisa quantitativa.

A modelagem fatorial é o foco principal da apresentação de Margenot. Ele destaca como os retornos de uma carteira consistem em retornos de mercado e fatores adicionais inexplicáveis. Ao incorporar fatores clássicos como pequena-grande (pequena capitalização de mercado versus empresas de grande capitalização de mercado) e alto menos baixo para relação livro-preço, o modelo pode avaliar o risco de mercado e expandir sua análise para outros fluxos de retorno. Os objetivos da modelagem de fatores incluem diversificar sinais não correlacionados, reduzir a volatilidade geral do portfólio e aumentar os retornos.

O palestrante discute a crescente popularidade da modelagem de fatores nos processos de construção de portfólio, citando uma pesquisa da Blackrock que indica que 87% dos investidores institucionais incorporam fatores em suas estratégias de investimento. Margenot descreve os cinco principais tipos de fatores em torno dos quais os portfólios giram: valor, impulso, qualidade, volatilidade e crescimento. Ele também explica o conceito de capital longo/curto, onde as posições são tomadas em posições longas e curtas com base nos valores dos fatores. O objetivo é usar essas exposições para criar um portfólio bem equilibrado.

Margenot mergulha no universo em que o algoritmo é aplicado, enfatizando a importância de alinhar o modelo estatístico com a execução dos negócios. Se as negociações não puderem ser executadas devido a restrições, como limitações de venda, o mandato da estratégia será violado. Margenot é a favor de estratégias neutras em relação ao dólar que acabam sendo neutras para o mercado. Ele constrói carteiras onde apenas os valores mais altos e mais baixos importam, visando capturar os maiores retornos esperados. A combinação de múltiplos fatores envolve a composição de uma classificação combinada, proporcionando flexibilidade dentro do portfólio.

Avaliar o desempenho do modelo e lidar com retornos inexplicados representam desafios, como explica Margenot. Ele discute a importância de um universo confiável com liquidez suficiente e apresenta o universo Q 1500, projetado para filtrar elementos indesejados. Em vez de prever preços, Margenot enfatiza a importância de entender quais ações são melhores do que outras e capturar o valor relativo. Ele demonstra o uso da API de pipeline em sua estrutura para calcular o momento, fornecendo exemplos de cálculos vetoriais.

O palestrante se concentra na criação de um fator de impulso que considera as tendências de longo e curto prazo. Margenot padroniza os retornos e penaliza o aspecto de longo prazo para enfrentar o risco de reversões de curto prazo. Ele utiliza um pacote chamado Alpha Ones para avaliar o sinal em diferentes escalas de tempo e constrói um portfólio usando o fator de momento. Margenot enfatiza a importância de determinar uma escala de tempo razoável e discute os fatores com os quais trabalha. Ele destaca o fluxo de trabalho de definição de um universo, fatores alfa e combinação de alfas para construir um portfólio de ações longo/curto.

Margenot discute a combinação de diferentes fatores alfa e sua construção de portfólio, enfatizando que a combinação de sinais independentes deve, idealmente, resultar em um sinal geral mais forte. Ele apresenta métodos de agregação dinâmicos e estáticos para combinar fatores e construir um portfólio. A agregação estática envolve um portfólio ponderado de diferentes fatores, enquanto a agregação dinâmica ajusta os pesos dos fatores com base em seu desempenho. A padronização dos fatores é essencial para garantir a comparabilidade dentro de cada fator individual.

A aprendizagem em conjunto é um tópico-chave discutido por Margenot. Ele explica que encontrar um algoritmo de treinamento de tendência ascendente consistente pode ser um desafio, pois deve ir além do simples beta. Para superar essa limitação, ele emprega aprendizado conjunto para agregar vários sinais individuais. Margenot utiliza especificamente o AdaBoost, uma técnica bem conhecida no aprendizado conjunto, para treinar árvores de decisão com base em seis recursos. Essas árvores de decisão prevêem se um ativo aumentará ou diminuirá, e a previsão final é determinada pela maioria dos resultados de mil árvores de decisão. Essa abordagem permite previsões mais precisas e robustas.

Margenot elabora ainda mais a avaliação do alfa do sinal, revitalizando fatores alfa cansados por meio do aprendizado de conjunto. Ele treina árvores de decisão ao longo de um mês e tenta prever retornos ou se o mercado estará em alta ou em baixa no futuro. Ao agregar o desempenho dos classificadores, ele extrai as importâncias das características da soma ponderada das árvores de decisão e avalia a lente alfa do sinal. No entanto, Margenot reconhece a necessidade de incorporar comissões e derrapagens no processo de avaliação, pois podem impactar significativamente os resultados finais.

Incorporar considerações de comissão e derrapagem em algoritmos é um aspecto essencial destacado por Margenot. Ele enfatiza que os custos de negociação do mundo real devem ser levados em consideração para garantir a viabilidade dos sinais. Ele demonstra os possíveis retornos negativos e reduções em um backtester devido à janela de treinamento limitada para um classificador de aprendizado de máquina e alta taxa de rotatividade. Margenot sugere explorar métodos alternativos de aprendizagem em conjunto ou implementações de plataforma para melhorar potencialmente o desempenho no futuro. Ele também menciona as ferramentas que utilizou para análise de fator alfa e análise de portfólio.

Ao longo do vídeo, Margenot apresenta várias ferramentas e recursos que podem ajudar na implementação de técnicas de aprendizado conjunto. Ele recomenda verificar o mecanismo de backtesting tirolesa e utilizar a plataforma Quantiopian, que fornece acesso a ele. Margenot sugere empregar Scikit-learn e o pacote Ensembles, que são valiosos para aprendizado de máquina, estatísticas e classificadores. Ele também menciona que compartilha palestras, algoritmos e soluções de modelo em seu GitHub, fornecendo acesso gratuito a seus conhecimentos para cientistas de dados e comerciantes.

No final da apresentação, Margenot discute o processo de renovar os fatores alfa existentes usando o aprendizado de conjunto. Ele enfatiza que mesmo que um fator alfa inicialmente não dê resultados positivos, ele pode ser melhorado. Ele destaca a importância do pipeline na definição de cálculos e explica como os componentes de treinamento em dados históricos permitem prever os movimentos do mercado com 20 dias de antecedência. Embora a validação cruzada possa ser desafiadora com dados históricos, Margenot sugere treinar para frente e prever o próximo conjunto de dados como uma solução alternativa.

Margenot conclui discutindo os aspectos práticos da implementação do aprendizado conjunto para melhorar os fatores alfa. Ele aconselha treinar o classificador de conjunto por um período mais longo e prever também por um período mais longo. Ele sugere empregar um esquema de ponderação de fatores e outras restrições para alocar recursos entre diferentes estratégias. Margenot defende o treinamento de um único modelo em todos os intérpretes dentro do pipeline, tratando cada fator como parte de um modelo unificado. Ele também menciona com humor a possibilidade de fatores fazerem o oposto de sua finalidade pretendida, adicionando um sinal negativo, destacando que isso raramente ocorre.

Em resumo, o vídeo de Max Margenot fornece informações valiosas sobre o domínio do aprendizado conjunto e sua aplicação no aprimoramento de fatores alfa. Ao combinar sinais independentes e utilizar técnicas de aprendizado conjunto, cientistas de dados e traders podem otimizar suas estratégias de investimento por meio de abordagens avançadas de aprendizado de máquina. Os conselhos práticos, demonstrações e ferramentas recomendadas de Margenot oferecem orientação para aqueles que buscam alavancar o aprendizado conjunto para tomadas de decisões mais precisas e lucrativas em estratégias de negociação.

  • 00:00:00 Nesta seção, Max Margenot, um cientista de dados da Quantopian, apresenta o conceito de "alfa à deriva", que visa revitalizar fatores alfa cansados usando aprendizado conjunto. Ele explica que os fatores alfa se referem a retornos novos e interessantes em finanças, enquanto os fatores de risco são os retornos usuais com os quais todos estão familiarizados, como o mercado. O objetivo é criar um portfólio combinando sinais independentes para obter algo novo e melhores resultados. Ele também explica brevemente o Modelo de Precificação de Ativos de Capital e como o Quantopian opera como uma plataforma gratuita para pesquisa quantitativa.

  • 00:05:00 Nesta seção, o palestrante apresenta a ideia de um modelo de fator, que tenta entender os riscos de uma carteira. O palestrante explica que os retornos de uma carteira são compostos pelos retornos do mercado e algo mais que é novo e inexplicável. Os fatores clássicos adicionados a um modelo de fator incluem pequeno - grande, que se refere a pequenas empresas de capitalização de mercado versus grandes empresas de capitalização de mercado, e alta menos baixa para relação livro-preço. Ao avaliar o risco de mercado e adicionar mais fatores, pode-se estender o modelo e observar a exposição em relação a outros fluxos de retorno. Por fim, diversificar sinais não correlacionados, diminuir a volatilidade no portfólio geral e aumentar os retornos são os objetivos da modelagem de fatores.

  • 00:10:00 Nesta seção, o palestrante discute como a modelagem fatorial está se tornando cada vez mais comum nos processos de construção de portfólio. De acordo com uma pesquisa da Blackrock, 87% dos investidores institucionais estão incorporando fatores em seu processo de investimento. Os cinco principais tipos de fatores em torno dos quais os portfólios giram são valor, impulso, qualidade, volatilidade e crescimento. O palestrante também fala sobre ações compradas/vendidas, o que envolve posições longas em algumas ações e vendas curtas em outras, usando o valor do fator para determinar onde elas ficam longas ou curtas. Em última análise, o objetivo é usar essas exposições para criar um portfólio.

  • 00:15:00 Nesta seção, Max Margenot discute o universo em que o algoritmo é aplicado. O algoritmo aplica um modelo estatístico e executa negociações de acordo com o modelo. Se as negociações não puderem ser feitas devido a restrições, como não poder vender a descoberto, o mandato da estratégia será violado. Margenot prefere estratégias neutras em relação ao dólar, que geralmente terminam neutras ao mercado, e constrói carteiras onde apenas os valores mais altos e mais baixos importam para capturar os retornos esperados mais altos. A combinação de múltiplos fatores envolve a composição de uma classificação combinada, que envolve muito espaço para mexer e é por isso que ele está definindo especificamente dessa maneira.

  • 00:20:00 Nesta seção, o palestrante discute os desafios de avaliar o desempenho de um modelo e como retornos inexplicáveis podem ser mais assustadores do que perdas ou rebaixamentos explicados. Ele fala sobre a importância de ter um universo confiável que tenha liquidez suficiente e como eles criaram o universo Q 1500 para filtrar elementos indesejados. O palestrante também explica como o cálculo de preços é desafiador e, em vez de prever preços, ele se concentra em entender quais ações são melhores do que outras. Ele então explica a noção de valor relativo e como capturá-lo é mais crítico do que estar em um mercado em alta ou em baixa. Por fim, ele define um exemplo de vetor e como usa a API do pipeline em sua estrutura para calcular o momento.

  • 00:25:00 Nesta seção do vídeo, Max Margenot discute sua abordagem para criar um fator de impulso que leva em consideração as tendências de longo e curto prazo. Ele padroniza os retornos e penaliza o aspecto de longo prazo para enfrentar o risco de reversão no curto prazo. Ele usa um pacote chamado Alpha Ones para avaliar o sinal em diferentes escalas de tempo e, finalmente, constrói um portfólio usando o fator de momento. Margenot explica a importância de decidir em um prazo razoável e discute os fatores com os quais está trabalhando. Ele também enfatiza o fluxo de trabalho de definição de um universo, fatores alfa e combinação de alfas para construir um portfólio de ações longo/curto.

  • 00:30:00 Nesta seção, Max Margenot discute a combinação de diferentes fatores alfa e sua construção de portfólio, observando que a combinação de sinais independentes idealmente leva a um sinal geral mais forte. Ele apresenta métodos de agregação dinâmicos e estáticos para combinar fatores e construir um portfólio, com agregação estática sendo o portfólio ponderado por fatores diferentes, enquanto a agregação dinâmica envolve alterar os pesos dos fatores com base em seu desempenho. Além disso, ele enfatiza a importância de padronizar os fatores para garantir que sejam comparáveis dentro de cada fator individual.

  • 00:35:00 Nesta seção do vídeo, Max Margenot fala sobre o aprendizado de conjunto e como ele pode ser usado para alocar recursos construídos de maneira criativa. Ele explica que é difícil criar um bom algoritmo de treinamento que suba consistentemente de uma maneira nova que não seja apenas beta. Para superar essa limitação, ele usa aprendizado conjunto para agregar muitos sinais individuais diferentes. Ele usa o AdaBoost, um velho favorito no aprendizado conjunto, para treinar árvores de decisão com base em seus seis recursos, prevendo se algo vai subir ou descer. Ele então pega a combinação vencedora de mil árvores de decisão diferentes e calcula o seno desse resultado, votando sim ou não com base na saída da maioria.

  • 00:40:00 Nesta seção, Max Margenot discute como avaliar um alfa de sinal usando o aprendizado de conjunto para revitalizar fatores alfa cansados. Ele treina as árvores de decisão ao longo de um mês e tenta prever retornos ou se estará em alta ou em baixa daqui a um mês, contando com o desempenho agregado dos classificadores. Ele então extrai as importâncias dos recursos da soma ponderada das árvores de decisão e avalia a lente alfa do sinal. Embora o valor adaboost tenha uma alta probabilidade de levar a um alto retorno, ele reconhece a necessidade de trazer isso para algo como uma lente des Baux alpha, que incorpora comissões e derrapagens.

  • 00:45:00 Nesta seção do vídeo, o apresentador discute a importância de incorporar comissão e derrapagem em algoritmos para garantir que os sinais ainda sejam bons após o fato. Ele então mostra os retornos negativos e reduções em um backtester devido à janela de treinamento limitada para um classificador de aprendizado de máquina e alta taxa de rotatividade. O apresentador sugere que o uso de um método de aprendizado conjunto diferente ou implementação de plataforma pode resultar em melhor desempenho no futuro. Finalmente, ele lista as ferramentas que usou para análise de fator alfa e análise de portfólio.

  • 00:50:00 Nesta seção, Max Margenot fala sobre o uso de Pi-elle e Cool para calcular a intenção por trás da negociação de um algoritmo e como isso pode ajudar a cumprir essa intenção no momento em que a posição é fechada. Ele recomenda verificar o mecanismo de backtesting tirolesa e usar a plataforma Quantiopian para acessá-lo. Ele também sugere o uso do pacote Scikit-learn e Ensembles, que é ótimo para aprendizado de máquina, estatísticas e classificadores. Max Margenot é palestrante na Quantopian e fornece acesso gratuito a suas palestras, algoritmos e soluções de modelo em seu GitHub.

  • 00:55:00 Nesta seção, Max Margenot, um pesquisador quantitativo, discute seu processo de usar o aprendizado conjunto para renovar os fatores alfa existentes. Ele explica que mesmo que um fator alfa não tenha funcionado inicialmente, ainda é possível construí-lo e melhorá-lo. Ele também aborda a importância do pipeline no processo de definição de cálculos e como, ao treinar componentes necessários em dados históricos, é possível prever aumentos ou perdas com 20 dias de antecedência. No entanto, Margenot aponta que a validação cruzada é difícil de implementar ao lidar com dados históricos, mas sua técnica é treinar para frente e prever no próximo conjunto de dados.

  • 01:00:00 Nesta seção, Max Margenot fala sobre o uso do aprendizado conjunto para melhorar os fatores alfa. Ele explica que toda vez que treina o classificador de ensemble, os pesos atribuídos a cada fator são diferentes com base no desempenho do mês anterior. Ele sugere treinar por um período mais longo e prever por um período mais longo. Ele também sugere o uso de um esquema de ponderação de fatores e outras restrições para alocar entre diferentes estratégias. Margenot também fala sobre o treinamento de um único modelo em todos os intérpretes dentro do pipeline para todos os fatores, em vez de tratar cada fator como um modelo individual. Ele brinca sobre a possibilidade de fatores fazerem o oposto do que deveriam fazer quando um sinal negativo é adicionado e explica que isso nunca acontece.

  • 01:05:00 Nesta seção, o palestrante fala sobre seu processo de reequilíbrio, que ocorre uma vez por mês, por achar que é mais fiel ao seu processo de pesquisa. Eles também reconhecem que dados ruidosos podem estar afetando suas previsões, pois estão obtendo apenas 1% de vantagem no conjunto de treinamento fornecido. O palestrante também considera a ideia de adicionar um recurso para cima ou para baixo ao seu modelo, mas sente que é mais esforço do que vale a pena. Eles discutem brevemente o uso de redes neurais, reconhecendo seu poder, mas também afirmando que preferem os métodos mais interpretáveis que estão usando atualmente. Por fim, o palestrante termina discutindo a importância de usar o aprendizado de máquina como ferramenta de classificação ou regressão, em vez de descoberta.

  • 01:10:00 Nesta seção do vídeo, o palestrante discute a utilidade de usar o adaboost para lidar com outliers ao lidar com um grande número de coisas diferentes. O palestrante também menciona o uso do aprendizado conjunto para prever coisas com retornos altos e baixos sem dividi-los em qualquer tipo de cesta até que a previsão seja feita. Eles mencionam a opção de usar uma terceira coisa para previsão. No entanto, eles sugerem começar com duas coisas para evitar lidar com muito mais.
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
"Thrifting Alpha: Using Ensemble Learning To Revitalize Tired Alpha Factors" by Max Margenot
  • 2017.07.25
  • www.youtube.com
This talk was given by Max Margenot at the Quantopian Meetup in San Francisco on July 18th, 2017. Video work was done by Matt Fisher, http://www.precipitate....
 

MIT 18.S096 Tópicos em Matemática com Aplicações em Finanças - 1. Introdução, Termos e Conceitos Financeiros



1. Introdução, Termos e Conceitos Financeiros

Neste vídeo informativo, os espectadores são levados a uma jornada por vários termos e conceitos financeiros para estabelecer uma base sólida em finanças. O curso atende alunos de graduação e pós-graduação interessados em seguir carreira na área. O objetivo é fornecer uma introdução às finanças modernas e equipar os alunos com conhecimentos essenciais.

O palestrante começa mergulhando na história dos termos e conceitos financeiros, lançando luz sobre termos importantes como Vega, Kappa e volatilidade. Vega é explicado como uma medida de sensibilidade à volatilidade, enquanto Kappa mede a volatilidade das mudanças de preços ao longo do tempo. O palestrante destaca que a área de finanças passou por uma notável transformação nas últimas três décadas, impulsionada pela integração de métodos quantitativos.

O vídeo também explora a evolução da profissão de trading e as mudanças que ela experimentou nos últimos 30 anos. Ele aborda os diversos produtos comerciais disponíveis no mercado e como eles são negociados. Em seguida, o palestrante investiga as causas da crise financeira de 2008, atribuindo-a à desregulamentação do setor bancário, que permitiu aos bancos de investimento oferecer produtos complexos aos investidores.

A importância dos mercados financeiros é enfatizada, pois eles desempenham um papel crucial na conexão de credores e devedores, ao mesmo tempo em que oferecem oportunidades para os investidores gerarem retornos mais altos sobre seus investimentos. O vídeo destaca os diferentes atores do mercado financeiro, incluindo bancos, corretoras, fundos mútuos, seguradoras, fundos de pensão e fundos de hedge.

Ao longo do vídeo, vários termos e conceitos financeiros são discutidos em detalhes. Cobertura, criação de mercado e negociação proprietária são explicados e termos como beta e alfa são introduzidos. Beta é descrito como a diferença de retorno entre dois ativos, enquanto alfa representa a diferença de retorno entre uma ação e o índice S&P 500. O palestrante também aborda a gestão de portfólio em relação ao alfa e ao beta.

O vídeo fornece informações sobre diferentes tipos de negociações e como elas são executadas. Ele explica o papel do hedge e da criação de mercado na proteção dos investidores. Além disso, o vídeo apresenta o Sr. White, que discorre sobre os termos e conceitos financeiros usados nos mercados. Delta, gama e theta são discutidos no contexto da negociação de ações, e é destacada a importância de compreender a exposição à volatilidade, requisitos de capital e riscos de balanço. O Sr. White também explora vários métodos usados para analisar ações, incluindo análise fundamental e arbitragem.

O vídeo menciona uma mudança de política do Federal Reserve para reduzir a flexibilização quantitativa, o que causou cautela entre os investidores e resultou em uma liquidação no mercado de ações. Ele enfatiza a natureza desafiadora de precificar instrumentos financeiros e gerenciar riscos usando modelos matemáticos. O palestrante destaca a necessidade de atualização constante das estratégias de negociação devido ao dinamismo do mercado.

O conceito de risco e recompensa é examinado minuciosamente, e o vídeo demonstra como o comportamento humano às vezes pode levar a resultados inesperados na tomada de decisões financeiras. Um exemplo é apresentado, onde o público recebe duas opções com diferentes probabilidades e ganhos ou perdas potenciais, destacando as diferentes preferências que os indivíduos podem ter.

À medida que o vídeo termina, os espectadores são incentivados a se inscrever em uma aula futura, e são sugeridas tarefas de casa opcionais relacionadas à compilação de uma lista de conceitos financeiros. Este vídeo abrangente serve como um excelente guia introdutório aos termos e conceitos financeiros, fornecendo um ponto de partida sólido para os interessados na área de finanças.

  • 00:00:00 Este vídeo apresenta conceitos, termos e fórmulas financeiras e fornece uma introdução às finanças modernas. A aula é aberta a alunos de graduação, e alunos de pós-graduação são bem-vindos. O objetivo é fornecer uma base para os alunos que desejam seguir uma carreira em finanças.

  • 00:05:00 Esta palestra discute a história dos termos e conceitos financeiros, incluindo Vega, Kappa e volatilidade. Vega é uma medida da sensibilidade de um livro ou portfólio à volatilidade, e Kappa é uma medida de quão volátil um preço pode mudar ao longo do tempo. A palestra também observa que finanças nem sempre foi uma profissão quantitativa e que os últimos 30 anos foram uma transformação no campo devido à introdução de métodos quantitativos.

  • 00:10:00 Este vídeo fornece informações sobre o setor financeiro, incluindo como a profissão comercial mudou nos últimos 30 anos. Abrange também as diferentes formas de comercializar produtos e como eles são comercializados.

  • 00:15:00 A crise financeira de 2008 foi causada em grande parte pela desregulamentação do setor bancário, que facilitou para os bancos de investimento oferecer produtos complexos aos investidores.

  • 00:20:00 Os mercados financeiros são essenciais para preencher a lacuna entre credores e devedores e para ajudar os investidores a gerar retornos ou rendimentos mais altos em seus investimentos. Existem diferentes tipos de participantes nos mercados, incluindo bancos, corretoras, fundos mútuos, seguradoras, fundos de pensão e fundos de hedge.

  • 00:25:00 Termos e conceitos financeiros são discutidos neste vídeo, incluindo hedge, criação de mercado e negociação proprietária. Beta é explicado como a diferença de retorno entre dois ativos, alfa é a diferença de retorno entre uma ação e o índice S&P 500 e a gestão de portfólio é discutida em relação a alfa e beta.

  • 00:30:00 Este vídeo explica como diferentes tipos de negócios são executados e como o hedge e a criação de mercado podem ajudar a proteger os investidores.

  • 00:35:00 Neste vídeo, o Sr. White explica os diferentes termos e conceitos financeiros usados nos mercados. Delta, gama e theta são conceitos importantes para entender ao negociar ações. Exposição à volatilidade, requisitos de capital e riscos de balanço também são discutidos. Finalmente, o Sr. White explica os diferentes métodos usados para analisar ações, incluindo análise fundamental e arbitragem.

  • 00:40:00 A mudança de política do Federal Reserve refere-se a um plano para reduzir a quantidade de flexibilização quantitativa que eles estão fazendo. Isso fez com que o mercado de ações vendesse, à medida que os investidores se tornavam mais cautelosos em relação ao futuro. Modelos matemáticos são usados para precificar instrumentos financeiros e gerenciar riscos, tarefas desafiadoras. Além disso, as estratégias de negociação devem ser constantemente atualizadas devido à natureza de rápida evolução do mercado.

  • 00:45:00 O apresentador discute os conceitos de risco e recompensa e mostra como o comportamento humano pode levar a resultados inesperados nas decisões financeiras. Ele então apresenta duas opções - uma com 80% de chance de perder dinheiro e outra com 100% de chance de ganhar - e pergunta ao público qual escolheria. A maioria do público escolhe a opção com o maior valor esperado, mas uma minoria escolhe a opção b, que tem a menor chance de ganhar, mas o potencial de perder mais dinheiro.

  • 00:50:00 O vídeo discute termos e conceitos financeiros e fornece um exemplo de como as pessoas podem aprender com suas experiências. O vídeo também sugere o dever de casa opcional de compilar uma lista de conceitos financeiros.

  • 00:55:00 Este vídeo apresenta termos e conceitos financeiros, incluindo os conceitos de derivativos, métodos de Monte Carlo e negociação eletrônica. Jake fornece dois exemplos de projetos nos quais trabalhou, um envolvendo a estimativa da derivada ruidosa de uma função e o outro envolvendo uma melhor previsão dos preços das moedas.

  • 01:00:00 Este vídeo apresenta termos e conceitos financeiros e pede aos espectadores que se inscrevam em uma aula futura.
1. Introduction, Financial Terms and Concepts
1. Introduction, Financial Terms and Concepts
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter Kempthorne,...
 

2. Álgebra Linear



2. Álgebra Linear

O vídeo abrange extensivamente álgebra linear, com foco em matrizes, autovalores e autovetores. Ele explica que autovalores e autovetores são vetores especiais que sofrem escala quando uma transformação linear é aplicada. Toda matriz n por n tem pelo menos um autovetor, e usando uma matriz ortonormal, torna-se possível decompor uma matriz em direções, simplificando o entendimento de transformações lineares. O vídeo também apresenta a Decomposição de Valor Singular (SVD) como outra ferramenta para entender as matrizes, especialmente para uma classe mais geral de matrizes. O SVD permite a representação de uma matriz como o produto de matrizes ortonormais e uma matriz diagonal, o que economiza espaço para matrizes de classificação inferior. Além disso, o vídeo destaca a importância dos autovetores na medição da correlação de dados e na definição de um novo sistema de coordenadas ortogonais sem alterar os próprios dados.

Além dos conceitos mencionados, o vídeo investiga dois importantes teoremas da álgebra linear. O primeiro é o teorema de Perron-Frobenius, que afirma que uma matriz não simétrica possui um autovalor único com o maior valor absoluto, juntamente com um autovetor correspondente com entradas positivas. Este teorema tem aplicações práticas em vários campos. O segundo teorema discutido é a Decomposição de Valor Singular (SVD), que permite a rotação de dados em uma nova orientação representada por bases ortonormais. O SVD é aplicável a uma gama mais ampla de matrizes e permite a simplificação, eliminando colunas e linhas desnecessárias, principalmente em matrizes com classificação significativamente inferior em comparação com o número de colunas e linhas.

O vídeo fornece explicações detalhadas, exemplos e provas desses conceitos, enfatizando sua relevância em diferentes campos da engenharia e da ciência. Ele incentiva os espectadores a entender os princípios subjacentes e a se envolver com o material.

  • 00:00:00 Nesta seção, o professor começa revisando álgebra linear, assumindo que os espectadores já fizeram um curso sobre ela anteriormente. Ele adapta as notas de aula para serem uma revisão para aqueles que fizeram o curso de álgebra linear mais básico. A palestra se concentra principalmente em matrizes e seu significado. O professor explica que uma matriz é uma coleção de números que podem ser usados para organizar dados como preços de ações. Uma matriz também é um operador que define uma transformação linear de um espaço vetorial n-dimensional para um espaço vetorial m-dimensional. O professor também apresenta o conceito de autovalores e autovetores e discute como eles podem ser aplicados a conjuntos de dados para produzir propriedades e quantidades importantes.

  • 00:05:00 Nesta seção, o vídeo do YouTube explica o conceito de autovalores e autovetores e sua importância para a álgebra linear. É definido como um número real e vetor que satisfaz a condição de A vezes v ser igual a lambda vezes V, e v sendo um autovetor correspondente a lambda. O determinante de (A-lambda I) é igual a 0 se A-lambda I não tiver posto completo, e det(A-lambda I) for um polinômio de grau n para matrizes quadradas. O vídeo também destaca que sempre existe pelo menos um autovalor e um autovetor, e o significado geométrico desse conceito é explicado do ponto de vista da transformação linear, onde A pega o vetor em R^3 e o transforma em outro vetor em R^ 3.

  • 00:10:00 Nesta seção do vídeo, o conceito de autovalores e autovetores são introduzidos como vetores especiais que, quando uma transformação linear é aplicada, apenas são dimensionados por uma quantidade conhecida como lambda. É estabelecido que toda matriz n por n tem pelo menos um autovetor, e uma matriz ortonormal pode ser usada para dividir uma matriz em direções, tornando a transformação linear fácil de entender. Por fim, explica-se que as matrizes que podem ser decompostas nessas direções são as mais importantes na álgebra linear, e essas direções são definidas pela matriz U, enquanto D define o quanto ela escalará.

  • 00:15:00 Nesta seção, o conceito de matrizes diagonalizáveis é introduzido. Embora nem todas as matrizes sejam diagonalizáveis, há uma classe especial de matrizes que sempre o são, e a maioria das matrizes que serão estudadas no curso se enquadram nessa categoria. Uma matriz é considerada diagonalizável se ela se divide em n direções, e isso é especialmente verdadeiro para matrizes simétricas, que possuem autovalores reais e são sempre diagonalizáveis. O Teorema 2 é discutido, o qual fornece uma prova para a diagonalizabilidade de matrizes simétricas.

  • 00:20:00 Nesta seção, o palestrante explica como diagonalizar matrizes simétricas, o que envolve autovalores e autovetores. O palestrante então enfatiza a importância de lembrar os Teoremas 1 e 2 para matrizes simétricas reais. Embora a diagonalização seja possível para matrizes simétricas, nem sempre é possível para matrizes gerais. Portanto, o palestrante apresenta uma ferramenta alternativa que pode ser usada para todas as matrizes para destilar informações importantes por meio de operações simples, como dimensionamento.

  • 00:25:00 Nesta seção, o palestrante apresenta a Decomposição de Valor Singular como a segunda ferramenta para entender as matrizes, que é semelhante à diagonalização, mas tem uma forma ligeiramente diferente. O teorema afirma que, para qualquer matriz m por n, sempre existem duas matrizes ortonormais, U e V, e uma matriz diagonal, sigma, de modo que a matriz pode ser decomposta como U vezes sigma vezes V transposto. O palestrante explica que isso funciona para todas as matrizes m por n gerais, enquanto a decomposição de autovalores funciona apenas para matrizes n por n diagonalizáveis. Além disso, o palestrante menciona que SVD fornece um quadro de vetores para os quais A atua como um operador de escala, e os espaços para os vetores são diferentes entre si.

  • 00:30:00 Nesta seção, o palestrante discute diagonalização e decomposição de valores próprios e como eles funcionam dentro de seus respectivos quadros. Eles a comparam com a decomposição de valor singular, que é aplicável a uma classe mais geral de matrizes. Eles também abordam a prova da decomposição de valor singular, que depende da decomposição de autovalor. O palestrante enfatiza a importância e a onipresença de ambas as formas de decomposição em muitos campos da engenharia e da ciência e incentiva os espectadores a tentar imaginar e entender os conceitos por trás da teoria.

  • 00:35:00 Nesta seção do vídeo, o conceito de autovalores e autovetores é explicado. Ao assumir que todos, exceto os primeiros autovalores, são zero, os autovalores são reescritos como sigma_1^2, sigma_2^2, sigma_r^2 e 0. Os autovetores são então definidos como u_1, u_2 até u_r, onde u_i é calculado por dividindo A vezes v_i por seu autovalor sigma_i correspondente. Com isso, uma matriz U é definida compreendendo de u_1 até u_n, e a matriz V é definida como v_1 até v_r, e v_r+1 até v_n. A multiplicação dessas matrizes resulta em uma matriz diagonal, onde as primeiras r entradas diagonais são sigma_1 a sigma_r e as entradas restantes são zero.

  • 00:40:00 Nesta seção, o palestrante fornece um tutorial sobre álgebra linear e explica como definir a matriz U e V aplicando A vezes V/sigma (onde A é A transposta vezes A). A diagonal da matriz é então preenchida com valores sigma e as colunas são definidas pelo produto escalar de U transposto com os valores lambda e V. O palestrante também aborda um erro de cálculo, corrigindo-o e revelando a simplicidade do processo.

  • 00:45:00 Nesta seção, o professor ensina como encontrar a decomposição de valor singular de uma matriz, que pode ser uma ferramenta poderosa. Para obter a decomposição de valor singular, você precisa encontrar os autovalores e autovetores da matriz e organizá-los adequadamente. Embora possa ser um pouco complicado de fazer à mão, é um exercício útil. Também existem maneiras mais eficientes de calcular isso em um computador, se necessário. O professor fornece um exemplo de como encontrar a decomposição em valor singular de uma matriz 2x3 e mostra os passos para obtê-la.

  • 00:50:00 Nesta seção, o professor explica o processo de encontrar a decomposição de valores singulares de uma matriz. Ele demonstra como encontrar os autovetores de uma matriz e passa a mostrar como decompor a matriz nas formas de transposição U, sigma e V. Ele enfatiza que os autovetores que correspondem a um autovalor de zero não são importantes e podem ser descartados, o que economiza computação. O professor conclui esta seção afirmando uma forma diferente de decomposição de valor singular.

  • 00:55:00 Nesta seção, é apresentada a forma simplificada de SVD. A torna-se igual a U vezes sigma vezes V transposta, onde U ainda é uma matriz m por m, sigma também é m por m e V é uma matriz m por n. Isso funciona apenas quando m é menor ou igual a n. A prova é a mesma, e o último passo é descartar informações irrelevantes. Essa forma simplifica as matrizes removendo colunas e linhas desnecessárias, tornando-a muito poderosa para matrizes com classificação muito inferior ao número de colunas e linhas. Um exemplo disso são os preços das ações com cinco empresas e 365 dias do ano. A forma reduzida economiza muito espaço e será a forma mais vista. Os autovetores ajudam a medir a correlação dos dados e definem um novo sistema de coordenadas ortogonais sem alterar os próprios dados.

  • 01:00:00 Nesta seção, o professor explica como a decomposição de valor singular (SVD) gira os dados em uma orientação diferente representada pela base ortonormal para a qual você está transformando. As correlações entre os diferentes estoques são representadas pela forma como esses pontos são orientados no espaço transformado. Além disso, o professor menciona o teorema de Perron-Frobenius, que parece teórico, mas Steve Ross encontrou um resultado que faz uso desse teorema chamado teorema da recuperação de Steve Ross. O teorema afirma que para uma matriz simétrica n por n cujas entradas são todas positivas, existe um maior autovalor, lambda_0.

  • 01:05:00 Nesta seção, o palestrante apresenta um conhecido teorema de álgebra linear que tem muitas aplicações teóricas, incluindo teoria de probabilidade e combinatória. O teorema afirma que, para uma matriz não simétrica, existe um único autovalor com o maior valor absoluto, que é um número real. Além disso, existe um autovetor com entradas positivas correspondentes a esse autovalor. O teorema tem sido usado em muitos contextos, e o palestrante descreve brevemente como ele funciona quando a matriz é simétrica. A prova envolve várias observações, incluindo o fato de que o maior autovalor positivo domina o menor autovalor negativo se todos os autovalores tiverem entradas positivas.

  • 01:10:00 Nesta seção, o palestrante explica como as entradas positivas de uma matriz têm impacto nos autovetores da matriz. Se um vetor tiver entradas não positivas ou entradas negativas, inverter o sinal das entradas e obter um novo vetor aumentará a magnitude, o que não pode acontecer em uma matriz com entradas positivas. O autovetor de uma matriz com entradas positivas também deve ter entradas positivas, e esse teorema é válido mesmo em configurações mais gerais. O palestrante revisará esse conceito mais tarde, mas ele entrará em jogo mais tarde.
2. Linear Algebra
2. Linear Algebra
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

3. Teoria da Probabilidade



3. Teoria da Probabilidade

Esta abrangente série de vídeos sobre Teoria das Probabilidades abrange uma ampla gama de tópicos, fornecendo uma compreensão profunda dos conceitos fundamentais e suas aplicações práticas. O professor começa atualizando nosso conhecimento sobre distribuições de probabilidade e funções geradoras de momentos. Ele distingue entre variáveis aleatórias discretas e contínuas e define termos importantes como função de massa de probabilidade e função de distribuição de probabilidade. O professor também ilustra esses conceitos com exemplos, incluindo a distribuição uniforme.

Em seguida, o professor aprofunda os conceitos de probabilidade e expectativa para variáveis aleatórias. Ele explica como calcular a probabilidade de um evento e define a expectativa (média) de uma variável aleatória. O professor também discute a noção de independência para variáveis aleatórias e apresenta a distribuição normal como uma distribuição universal para variáveis aleatórias contínuas.

Ao explorar a modelagem de preços de ações e produtos financeiros, o professor aponta que usar apenas a distribuição normal pode não capturar com precisão a magnitude das variações de preços. Em vez disso, ele sugere modelar a variação percentual como uma variável normalmente distribuída. Além disso, o professor discute a distribuição log-normal e sua função de densidade de probabilidade, destacando que seus parâmetros mu e sigma são derivados da distribuição normal.

A série de vídeos apresenta outras distribuições dentro da família exponencial, como Poisson e distribuições exponenciais. Essas distribuições possuem propriedades estatísticas que as tornam úteis em aplicações do mundo real. O professor explica como essas distribuições podem ser parametrizadas e enfatiza a relação entre a distribuição log-normal e a família exponencial.

Seguindo em frente, o professor explora os aspectos estatísticos e o comportamento de longo prazo de variáveis aleatórias. Ele explica o conceito de momentos, representados pelos k-ésimos momentos de uma variável aleatória, e enfatiza o uso da função geradora de momentos como uma ferramenta unificada para estudar todos os momentos. Além disso, o professor discute o comportamento de longo prazo de variáveis aleatórias observando múltiplas variáveis aleatórias independentes com a mesma distribuição, levando a um gráfico que se assemelha a uma curva.

A série de vídeos se concentra em dois teoremas importantes: a lei dos grandes números e o teorema do limite central. A lei dos grandes números afirma que a média de variáveis aleatórias independentes e identicamente distribuídas converge para a média em um sentido fraco conforme o número de tentativas aumenta. A probabilidade de desvio da média diminui com um número maior de tentativas. O teorema do limite central demonstra que a distribuição da média das variáveis aleatórias independentes se aproxima de uma distribuição normal, independentemente da distribuição inicial. A função geradora de momento desempenha um papel fundamental em mostrar a convergência da distribuição da variável aleatória.

A convergência de variáveis aleatórias é discutida mais adiante, destacando como a função geradora de momentos pode controlar a distribuição. O professor apresenta o conceito de rake de cassino como forma de gerar lucros e discute a influência da variação na crença nas próprias capacidades. A prova da lei dos grandes números é explicada, enfatizando como a média de um número maior de termos reduz a variância.

No contexto de um cassino, o palestrante explica como a lei dos grandes números pode ser aplicada. Nota-se que um apostador pode ter uma leve desvantagem em jogos individuais, mas com um grande tamanho de amostra, a lei dos grandes números garante que o resultado médio tenda para o valor esperado. A ideia de um cassino fazer um rake é explorada, destacando como a vantagem do jogador e a crença em princípios matemáticos podem influenciar os resultados.

Por fim, a série de vídeos investiga as leis fracas e fortes dos grandes números e discute o teorema do limite central. A lei fraca afirma que a média de variáveis aleatórias independentes e identicamente distribuídas converge para a média à medida que o número de tentativas se aproxima do infinito. A lei forte dos grandes números fornece uma forma mais forte de convergência. O teorema do limite central explica a convergência da distribuição da média para uma distribuição normal, mesmo quando a distribuição inicial é diferente.

No geral, esta série de vídeos oferece uma extensa exploração dos conceitos da Teoria da Probabilidade, incluindo distribuições de probabilidade, funções geradoras de momentos, leis de grandes números, teorema do limite central e suas implicações práticas.

  • 00:00:00 Nesta seção, o professor introduz o tema da teoria da probabilidade, dando uma visão geral das distribuições de probabilidade e focando na função geradora de momentos. Ele distingue entre variáveis aleatórias discretas e contínuas e define a função de massa de probabilidade e a função de distribuição de probabilidade. O professor esclarece que o espaço amostral é geralmente considerado como sendo os números reais para variáveis aleatórias contínuas, e fornece exemplos de funções de massa de probabilidade e funções de distribuição de probabilidade, incluindo uma distribuição uniforme. No geral, esta seção serve como uma atualização para aqueles familiarizados com os fundamentos da teoria da probabilidade.

  • 00:05:00 Nesta seção, o professor discute os conceitos de probabilidade e expectativa para variáveis aleatórias. Ele explica que a probabilidade de um evento pode ser calculada como a soma de todos os pontos no evento ou a integral sobre o conjunto. Ele também define a expectativa, ou média, para variáveis aleatórias como a soma ou integral de todos os valores possíveis da variável aleatória multiplicados por esse valor. O professor passa então a explicar o conceito de independência para variáveis aleatórias, distinguindo entre eventos mutuamente independentes e eventos independentes aos pares. Finalmente, ele apresenta a distribuição normal como uma distribuição universal para variáveis aleatórias contínuas.

  • 00:10:00 Nesta seção do vídeo sobre Teoria das Probabilidades, o palestrante discute o uso da distribuição normal como forma de modelar preços de ações ou produtos financeiros, e como nem sempre é uma boa escolha por não levar em consideração o ordem de grandeza do próprio preço. Em vez disso, o palestrante investiga a ideia de que a variação percentual deve ser distribuída normalmente para modelar melhor os preços das ações. O palestrante menciona que os incrementos de preço normalmente distribuídos produzirão um preço normalmente distribuído em vez de ter qualquer tendência.

  • 00:15:00 Nesta seção, o professor explica como encontrar a distribuição de probabilidade de Pn quando as variações de preço são log-normalmente distribuídas. Ele define uma distribuição log-normal Y como uma variável aleatória tal que log Y é normalmente distribuído. Usando a fórmula de mudança de variável, ele mostra como encontrar a função de distribuição de probabilidade da distribuição log-normal usando a distribuição de probabilidade de normal. O professor também explica por que tomar a variação percentual como modelo para as variações de preço não é uma boa escolha no longo prazo, pois pode assumir valores negativos e fazer com que o preço suba ou desça até o infinito.

  • 00:20:00 Nesta seção, o professor discute a distribuição log-normal e sua definição. A função de densidade de probabilidade de X é igual à função de densidade de probabilidade de Y em log X vezes a diferenciação de log X que é 1 sobre X. A distribuição é referida em termos dos parâmetros mu e sigma, que vieram da distribuição normal . No entanto, quando assimétrico, não está mais centrado em mu, e tirar a média não dá a média, que não é e elevado a sigma.

  • 00:25:00 Nesta seção, o professor apresenta outras distribuições além das distribuições normal e log-normal, como as distribuições de Poisson e exponenciais, que pertencem a uma família de distribuições denominada família exponencial. Esta família tem algumas boas propriedades estatísticas que as tornam úteis em aplicações do mundo real. O professor explica que todas as distribuições dessa família podem ser parametrizadas por um vetor chamado "theta", e que a função densidade de probabilidade pode ser escrita como um produto de três funções: h(x), t_i(x) e c(theta ). O professor explica como a distribuição log-normal cai na família exponencial usando a fórmula 1 sobre x sigma raiz quadrada de 2 pi, e elevado a menos log x [INAUDÍVEL] ao quadrado.

  • 00:30:00 Nesta seção, o palestrante discute as duas principais coisas de interesse ao estudar uma variável aleatória: estatísticas e comportamento de longo prazo/larga escala. As estatísticas são representadas pelos k-ésimos momentos da variável aleatória, onde o k-ésimo momento é definido como a expectativa de X elevado a k. O palestrante explica que uma forma unificada de estudar todos os momentos juntos é por meio da função geradora de momentos, que contém todas as informações estatísticas de uma variável aleatória. O segundo tópico principal é o comportamento de longo prazo ou em grande escala de uma variável aleatória, que pode ser observada por meio de várias variáveis aleatórias independentes com exatamente a mesma distribuição. Quando os números são muito grandes, um gráfico pode ser plotado para mostrar quantas variáveis aleatórias caem em cada ponto, o que parecerá muito próximo a uma curva.

  • 00:35:00 Nesta seção, o palestrante discute a teoria da probabilidade e o comportamento de longo prazo ou comportamento em larga escala de variáveis aleatórias. Os dois teoremas discutidos são a lei dos grandes números e o teorema do limite central. A função geradora de momento também é introduzida e é definida como a expectativa de e elevado a t vezes x, onde t é algum parâmetro. A função dá o k-ésimo momento da variável aleatória e é para todos os inteiros. O palestrante observa que a existência da função geradora de momentos é importante, pois classifica variáveis aleatórias.

  • 00:40:00 Nesta seção, o teorema de que se duas variáveis aleatórias têm a mesma função geradora de momento, então elas têm a mesma distribuição. No entanto, é advertido que isso não significa que todas as variáveis aleatórias com k-ésimos momentos idênticos para todo k tenham a mesma distribuição, pois a existência de funções geradoras de momentos é necessária. Outra declaração é mencionada, que diz que se a função geradora de momento existe para uma sequência de variáveis aleatórias e converge para a função geradora de momento de alguma outra variável aleatória X, então a distribuição dessa sequência se aproxima cada vez mais da distribuição de X.

  • 00:45:00 Nesta seção, o professor discute o conceito de convergência de variáveis aleatórias e explica que as distribuições das variáveis aleatórias convergem para a distribuição de uma variável aleatória. A função geradora de momentos é uma ferramenta poderosa para controlar a distribuição, como visto nos teoremas dados. O professor então introduz a lei dos grandes números, onde X é definido como a média de n variáveis aleatórias, e explica que se essas variáveis são independentes, identicamente distribuídas com média mu e variância sigma ao quadrado, então a probabilidade de que X seja menor ou igual a um certo valor tende à probabilidade desse valor.

  • 00:50:00 Nesta seção, o palestrante discute a lei dos grandes números e sua aplicação no cassino. Quando se calcula a média de um grande número de distribuições independentes idênticas, seus valores estarão muito próximos da média. Ao jogar blackjack em um cassino, o apostador tem uma pequena desvantagem com uma probabilidade de ganhar de 48%. Do ponto de vista do jogador, apenas uma pequena amostra é tomada, fazendo com que a variância assuma em um curto período de tempo. Porém, do ponto de vista do cassino, eles têm um tamanho de amostra muito grande e enquanto houver uma vantagem a seu favor, eles continuarão ganhando dinheiro. O pôquer é diferente dos jogos de cassino, pois é jogado contra outros jogadores, não contra o cassino.

  • 00:55:00 Nesta seção, é discutida a ideia de um cassino receber rake como forma de ganhar dinheiro, com as taxas pagas pelos jogadores acumulando para gerar lucros para o cassino. Postula-se que se um jogador for melhor que seu oponente e essa vantagem for maior que a taxa cobrada pelo cassino, o jogador pode vencer usando a lei dos grandes números. Apesar disso, quando a variação é significativa, a crença nas próprias capacidades pode diminuir; no entanto, ter fé na matemática pode ser tudo o que é necessário para manter o curso. A prova da lei dos grandes números é então explicada, com um exemplo que ilustra como a média de um número maior de termos diminui a variância.

  • 01:00:00 Nesta seção, a lei fraca dos grandes números é discutida, que afirma que, se você tiver variáveis aleatórias independentes e identicamente distribuídas (IID), a média converge para a média em um sentido fraco à medida que o número de tentativas aumenta ao infinito. A probabilidade de desvio da média diminui à medida que o número de tentativas aumenta. A lei forte dos grandes números também é brevemente abordada, que tem uma convergência mais forte do que a lei fraca. O teorema do limite central é o próximo tópico, que explora o que acontece quando o número de tentativas é substituído pela raiz quadrada do número de tentativas na variável aleatória.

  • 01:05:00 Nesta seção, o professor explica como o teorema do limite central responde a uma questão sobre a distribuição de Yn com média 0 e variância sigma ao quadrado. Ele afirmou que ao pegar muitos eventos independentes e encontrar sua média, nesse sentido, sua distribuição converge para uma distribuição normal. Ele afirmou ainda um teorema sobre a convergência da distribuição de Yn para a distribuição normal com média 0 e variância sigma. Independentemente da distribuição inicial, ocorre a convergência para a distribuição normal.

  • 01:10:00 Nesta seção, o objetivo é provar que a função geradora de momento de Y_n converge para a função geradora de momento da normal para todo t, convergência pontual. A função geradora de momento da normal é e elevado a t ao quadrado sigma quadrado sobre 2. A função geradora de momento de Y_n é igual à expectativa de e elevado a t Y_n. O produto de e elevado a t, 1 sobre a raiz quadrada n, X_i menos mu torna-se o produto de 1 a n, expectativa e elevado a t vezes a raiz quadrada n. A n-ésima potência disso é igual à expectativa de e elevado a t sobre a raiz quadrada de n, X_i menos mu elevado a n-ésima potência. A expansão de Taylor é usada, e como n vai para o infinito, todos esses termos serão de ordem de grandeza menor que n, 1 sobre n.

  • 01:15:00 Nesta seção, o palestrante discute a lei dos grandes números e o teorema do limite central como formas de estimar a média de uma variável aleatória. Tomando muitas tentativas independentes de uma variável aleatória e usando-as para estimar a média, a lei dos grandes números afirma que a estimativa será muito próxima da média real se o número de tentativas for grande o suficiente. O teorema do limite central explica então como a distribuição dessa estimativa é em torno da média, com distribuições normais tendo distribuições de cauda muito pequenas. No entanto, o palestrante observa que, para algumas distribuições, é melhor usar um estimador diferente do estimador de máxima verossimilhança.
3. Probability Theory
3. Probability Theory
  • 2015.04.23
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum LeeThis...
 

5. Processos Estocásticos I



5. Processos Estocásticos I

Neste vídeo sobre processos estocásticos, o professor apresenta uma introdução abrangente e uma visão geral dos processos estocásticos de tempo discreto e contínuo. Esses modelos probabilísticos são usados para analisar eventos aleatórios que ocorrem ao longo do tempo. O vídeo mostra exemplos de caminhada aleatória simples e processos de cadeia de Markov para ilustrar como eles abordam questões relacionadas à dependência, comportamento de longo prazo e eventos de limite. Além disso, o teorema de Perron-Frobenius é discutido, enfatizando a importância dos autovetores e autovalores na determinação do comportamento de longo prazo do sistema. O vídeo conclui apresentando o conceito de processos de martingale, que servem como modelos de jogo justo.

O vídeo começa apresentando o conceito de martingales em processos estocásticos, que são projetados para manter um valor esperado inalterado. Um exemplo de martingale é um passeio aleatório, que exibe flutuação enquanto mantém consistentemente um valor esperado de 1. O vídeo também explica os tempos de parada, que são estratégias predeterminadas dependentes apenas dos valores do processo estocástico até um ponto específico. O teorema da parada opcional afirma que, se existir um martingale e um tempo de parada tau, o valor esperado no tempo de parada será igual ao valor inicial do martingale. Este teorema ressalta a justiça e a natureza de equilíbrio dos processos de martingale.

Ao longo do vídeo, vários tópicos são abordados em detalhes. São introduzidos processos estocásticos de tempo discreto e de tempo contínuo, ilustrando sua representação por meio de distribuições de probabilidade em diferentes caminhos. Exemplos como um passeio aleatório simples e um jogo de cara ou coroa ajudam a elucidar as propriedades e comportamentos desses processos. A importância das cadeias de Markov é discutida, enfatizando como o estado futuro depende apenas do estado atual, simplificando a análise de processos estocásticos. A noção de distribuição estacionária é explorada, apresentando o teorema de Perron-Frobenius, que estabelece a existência de um único autovetor correspondente ao maior autovalor, representando o comportamento de longo prazo do sistema.

O vídeo conclui enfatizando a conexão entre martingales e jogos justos. Nota-se que um processo de martingale garante que o valor esperado permaneça inalterado, significando um jogo equilibrado. Por outro lado, jogos como roleta em cassinos não são martingales, pois o valor esperado é menor que 0, resultando em perdas esperadas para os jogadores. Por fim, é mencionado um teorema, sugerindo que se um apostador for modelado usando um martingale, independente da estratégia empregada, o saldo será sempre igual ao saldo inicial. Além disso, a expectativa de X_tau, o valor no tempo de parada, é sempre 0, indicando que, quando modelado por um martingale, não se espera que o jogador vença.

No geral, o vídeo fornece uma visão abrangente dos processos estocásticos, suas propriedades e suas aplicações na modelagem e análise de eventos aleatórios.

  • 00:00:00 Nesta seção, o professor fornece uma introdução aos processos estocásticos, uma coleção de variáveis aleatórias indexadas pelo tempo. Ela distingue entre processos estocásticos de tempo discreto e de tempo contínuo e explica que eles podem ser representados por um conjunto de probabilidades em diferentes caminhos. Ela dá exemplos de três processos estocásticos, incluindo um em que f(t) é igual a t com probabilidade 1, um em que f(t) é igual a t para todo t com probabilidade 1/2, ou f(t) é igual a -t para todo t com probabilidade 1/2, e um em que para cada t, f(t) é igual a t ou -t com probabilidade 1/2.

  • 00:05:00 Nesta seção, o palestrante discute o conceito de processos estocásticos e os diferentes tipos de questões que são estudadas em relação a eles. Os processos estocásticos são usados para modelar situações da vida real, como preços de ações, e envolvem variáveis aleatórias que dependem umas das outras. Os três principais tipos de questões estudadas incluem dependências na sequência de valores, comportamento de longo prazo e eventos de fronteira. O palestrante explica como cada tipo de questão se relaciona com os processos estocásticos e sua distribuição de probabilidade.

  • 00:10:00 Nesta seção, é introduzido o tópico de processos estocásticos, que se refere à análise de eventos aleatórios que ocorrem ao longo do tempo. Especificamente, o foco está nos processos estocásticos de tempo discreto, um dos mais importantes dos quais é o passeio aleatório simples. Isso é definido como uma sequência de variáveis aleatórias, X sub t, que é a soma de variáveis independentes identicamente distribuídas (IID), Y_i, que podem assumir valores de 1 ou -1 com uma probabilidade de 1/2. A trajetória do passeio aleatório pode ser visualizada como uma sequência de movimentos, seja para cima ou para baixo, dependendo do valor de Y_i. Este modelo fornecerá uma base para a compreensão dos processos estocásticos de tempo contínuo mais adiante no curso.

  • 00:15:00 Nesta seção, o professor discute o comportamento de um passeio aleatório simples durante um longo período de tempo. De acordo com o teorema do limite central, quanto mais próximo de 0 um valor X_t chegar, menor será a variância, que deve ser em torno de 1 sobre t, e o desvio padrão em torno de 1 sobre a raiz quadrada de t. Ao observar X_t sobre a raiz quadrada de t, os valores terão distribuição normal, com média 0 e variância a raiz quadrada de t. Portanto, em uma escala muito grande, um passeio aleatório simples não se desviará muito da raiz quadrada de t e menos raiz quadrada de curvas t. Mesmo que um valor extremo teórico para a caminhada seja t e menos t, você estará perto das curvas, jogando principalmente dentro dessa área. O professor menciona que há um teorema afirmando que você atingirá as duas linhas infinitamente.

  • 00:20:00 Nesta seção, as propriedades de um passeio aleatório são discutidas. A primeira propriedade é que a expectativa de X sub k é 0, e a segunda propriedade é chamada de incremento independente. Isso significa que se você observar o que acontece do tempo 1 ao 10, é irrelevante o que acontece do 20 ao 30. A terceira propriedade é chamada de estacionária. Ela afirma que a distribuição de X sub t+h menos X sub t é a mesma que a distribuição de X sub h. O exemplo de um jogo de cara ou coroa é usado para mostrar que, se você começar com um saldo de $ 0,00 com uma moeda honesta, seu saldo seguirá exatamente a caminhada aleatória simples, assumindo uma chance de 50-50.

  • 00:25:00 Nesta seção, o professor discute probabilidades em um cenário de caminhada aleatória onde ele joga uma moeda e para após ganhar $ 100 ou perder $ 50. Colocando uma linha nos dois pontos de parada, ele explica que a probabilidade de atingir a linha superior primeiro é A sobre A mais B, e a probabilidade de atingir a linha inferior primeiro é B sobre A mais B. Usando esta fórmula, ele calcula que a probabilidade de ganhar $ 100 é 2/3 e perder $ 50 é 1/3. O professor então descreve como provar essa fórmula definindo f de k como a probabilidade de atingir qualquer uma das linhas primeiro ao iniciar na posição k na caminhada aleatória.

  • 00:30:00 Nesta seção, o palestrante discute dois processos estocásticos importantes: o passeio aleatório simples e a cadeia de Markov. O passeio aleatório simples é um processo em que, a cada passo, um indivíduo sobe ou desce com uma probabilidade de 1/2. A propriedade estacionária desse processo permite o cálculo fácil de probabilidades. Por outro lado, uma cadeia de Markov é uma coleção de processos estocásticos onde o efeito do passado no futuro é resumido pelo estado atual. A importância da cadeia de Markov é que o futuro depende apenas do presente, o que a torna um processo estocástico mais gerenciável para analisar.

  • 00:35:00 Nesta seção, o palestrante explica o conceito de processos estocásticos de tempo discreto como uma cadeia de Markov. O exemplo de um passeio aleatório simples é usado para ilustrar que o processo é uma cadeia de Markov porque sua probabilidade de atingir o próximo passo depende apenas do valor atual e não de seus valores anteriores. A probabilidade do processo pode ser definida matematicamente, sendo a probabilidade de sua transição de i para j a soma de todas as probabilidades de ir de i para todos os outros pontos do conjunto. Para um conjunto finito S, as cadeias de Markov são fáceis de descrever calculando suas probabilidades de transição.

  • 00:40:00 Nesta seção, o palestrante explica que a matriz de probabilidade de transição é uma ferramenta crucial para entender as cadeias de Markov. Esta matriz, que consiste nas probabilidades de transição de um estado para outro, possui todas as informações necessárias para prever futuras transições em uma cadeia de Markov. Usando esta matriz, pode-se determinar a probabilidade de fazer uma transição de um estado para outro em qualquer número de etapas. No entanto, é importante notar que o espaço de estados deve ser finito para que a matriz de probabilidade de transição exista.

  • 00:45:00 Nesta seção, é dado um exemplo de cadeia de Markov de um sistema que pode ser modelado como um conjunto de estados com trabalho ou quebrado como os estados. O exemplo mostra uma matriz com probabilidades de transição entre estados como a probabilidade dela ser reparada e a probabilidade dela permanecer quebrada. A questão colocada é qual seria a distribuição de probabilidade do sistema após um longo período, digamos 10 anos, e a suposição feita é que a distribuição de probabilidade no dia 3.650 e no dia 3.651 deveria ser aproximadamente a mesma. Sob esta hipótese, a distribuição de probabilidade observada após um longo período de tempo será o autovetor da matriz, cujo autovalor é 1, e cujo autovetor é [p, q].

  • 00:50:00 Nesta seção, o palestrante discute o teorema de Perron-Frobenius, que afirma que para uma matriz de transição com entradas positivas em uma cadeia de Markov, existe um vetor que satisfaz Av = v. Esse vetor é chamado de distribuição estacionária e representa o comportamento de longo prazo do sistema. O maior autovalor da matriz é garantido como 1, e o autovetor correspondente será aquele que representa a distribuição estacionária. O teorema é geral e se aplica não apenas à matriz usada no exemplo, mas a qualquer matriz de transição em uma cadeia de Markov com entradas positivas.

  • 00:55:00 Nesta seção, o professor discute distribuição estacionária e sua unicidade em relação a autovetores e autovalores. O teorema de Perron-Frebenius diz que existe apenas um autovetor que corresponde ao maior autovalor, que acaba sendo 1. Os outros autovalores na matriz são menores que 1, o que significa que eles se dissipam, mas o comportamento correspondente à distribuição estacionária persiste . No tópico final, o professor explica sobre o martingale, que é outra coleção de processos estocásticos, usados para modelar um jogo justo. Um processo estocástico é considerado um martingale se for um jogo justo.

  • 01:00:00 Nesta seção, o palestrante explica como um processo estocástico pode ser um martingale, que é um jogo justo. Em um martingale, se você observar o que pode acontecer no tempo t+1, o valor esperado deve ser exatamente igual ao valor no tempo t, então o processo é centrado naquele ponto. Se for como o seu saldo em um jogo, espera-se que você não ganhe dinheiro algum. O palestrante fornece o exemplo de um passeio aleatório, que é um martingale. No entanto, um jogo de roleta em um cassino não é um martingale, pois o valor esperado é menor que 0, o que significa que o jogador foi projetado para perder dinheiro. Por fim, o palestrante mostra um exemplo engraçado para ilustrar que há muitas maneiras de um processo estocástico ser um martingale, inventando o exemplo de X_k igualando 2 ou -1, dependendo da distribuição de probabilidade.

  • 01:05:00 Nesta seção, foi introduzido o conceito de martingales, que são processos estocásticos projetados para que o valor esperado seja sempre igual a 1. Um exemplo de martingale é um passeio aleatório que flutua muito, mas na expectativa, mantém um valor esperado de 1 em todos os momentos. Também foi discutido o teorema da parada opcional, que afirma que jogar um jogo de martingale garante que você não ganhará nem perderá na expectativa, independentemente da estratégia que usar. Também foi explicada a definição de tempo de parada, que é uma variável aleatória de valor inteiro não negativo que depende apenas do processo estocástico até um determinado tempo.

  • 01:10:00 Nesta seção, o professor explica o conceito de tempo de parada, que é um conjunto predefinido de estratégias que contam apenas com os valores do processo estocástico até certo ponto, tornando-o um tempo de parada. Ele fornece um exemplo de jogo de cara ou coroa e mostra como o momento em que o saldo se torna $ 100 ou $ 50 negativo é um tempo de parada, enquanto o tempo do primeiro pico não é, pois depende de valores futuros. O teorema opcional da parada afirma que se houver um martingale e um tempo de parada tau sempre menor ou igual a uma constante T, o valor no tempo de parada terá um valor esperado igual ao valor inicial do martingale.

  • 01:15:00 Nesta seção, o vídeo discute um teorema que mostra que se um jogador for modelado usando um martingale, não importa qual estratégia seja usada, o jogador não pode ganhar porque o saldo no início é sempre igual ao saldo quando o jogador pára. Embora o palestrante não demonstre esse teorema, ele fornece um corolário interessante que mostra que a expectativa de X_tau é igual a 0. Isso significa que não importa qual caso seja usado, seja parando em $ 100, -50 ou ilimitado, o resultado sempre retornará como 0. O palestrante enfatiza que o conteúdo do teorema é interessante, pois implica que, se algo pode ser modelado usando um martingale, o jogador não deve vencer.
5. Stochastic Processes I
5. Stochastic Processes I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Choongbum Lee*NOT...