Negociação quantitativa - página 8

 

Rama Cont e Francesco Capponi: "Impacto cruzado nos mercados de ações"



Rama Cont e Francesco Capponi: "Impacto cruzado nos mercados de ações"

Rama Cont e Francesco Capponi se aprofundam no conceito de impacto cruzado nos mercados de ações por meio de sua análise do fluxo de pedidos e dados de preços. Eles afirmam que o impacto cruzado significa que o preço de um ativo é influenciado não apenas por seu próprio fluxo de pedidos, mas também pelo fluxo de pedidos de outros ativos. Embora estudos teóricos anteriores tenham tentado derivar as consequências dos efeitos de impacto cruzado e estender os modelos de execução comercial ideal de um único ativo para vários ativos, Cont e Capponi propõem uma abordagem mais simplificada para explicar as correlações entre retornos de ativos e fluxo de pedidos.

Eles argumentam que uma matriz abrangente de coeficientes de impacto de preço não é necessária para explicar essas correlações. Em vez disso, eles afirmam que as correlações observadas podem ser atribuídas ao fato de que os participantes do mercado frequentemente se envolvem na negociação de vários ativos, gerando assim desequilíbrios de fluxo de ordens correlacionadas entre os ativos. Para identificar a significância dos coeficientes de impacto cruzado e os principais impulsionadores dos custos de execução, os apresentadores sugerem o uso de uma análise de componentes principais (PCA) nas matrizes de correlação de retornos e desequilíbrios no fluxo de pedidos.

Cont e Capponi propõem um modelo parcimonioso para impacto cruzado em mercados de ações, com foco no equilíbrio do fluxo de ordens de uma ação e na correlação dos desequilíbrios do fluxo de ordens. Eles acham que um modelo de um fator para o desequilíbrio do fluxo de pedidos é suficiente para explicar as correlações cruzadas dos retornos. Este modelo pode ser utilizado para execução de portfólio e análise de custo de transação, com os apresentadores recomendando o uso de um modelo confiável para impacto de ativo único, juntamente com um bom modelo para fatores comuns no fluxo de ordem entre ativos.

Os palestrantes enfatizam a importância de estabelecer um modelo causal e interpretação para a equação. Eles expressam sua prontidão em compartilhar materiais e atualizações adicionais, enfatizando seu compromisso de aprofundar a compreensão nesta área de pesquisa.

  • 00:00:00 Nesta seção do vídeo, Rama Cont e Francesco Capponi discutem o conceito de impacto cruzado nos mercados de ações. Eles investigam esse conceito analisando o fluxo de pedidos e os dados de preço dos mercados de ações e explicam que o impacto no mercado, ou a execução de negociações que movem o preço de um ativo, contribui para o custo de execução. Eles também mostram que os movimentos de preços são impulsionados pelo desequilíbrio agregado entre oferta e demanda e definem a noção de desequilíbrio do fluxo de pedidos como uma ferramenta útil para a construção de modelos de impacto.

  • 00:05:00 Nesta seção, Rama Cont e Francesco Capponi discutem o impacto linear do desequilíbrio do fluxo de pedidos em mercados centralizados de livros de pedidos. Esse desequilíbrio agregado entre oferta e demanda é o que impulsiona o preço, que pode ser visto como um modelo de regressão com o coeficiente de impacto refletindo a noção oposta de liquidez. O coeficiente tem uma relação inversa altamente correlacionada com a profundidade da carteira de pedidos, e a extração do coeficiente de impacto pode ser feita por meio de um cálculo de covariância. Embora o estudo tenha sido feito anteriormente para ações individuais, os participantes do mercado também estão interessados em correlações entre vários ativos, e correlações positivas foram encontradas entre o desequilíbrio do fluxo de pedidos e os retornos de diferentes títulos.

  • 00:10:00 Nesta seção, Rama Cont e Francesco Capponi discutem o conceito de impacto cruzado e seus estudos teóricos e empíricos. Eles explicam que o impacto cruzado se refere ao fato de que o preço de um ativo não é influenciado apenas pelo seu próprio fluxo de ordens, mas também pelo fluxo de ordens de outros ativos. Estudos empíricos documentaram uma correlação positiva entre o fluxo de pedidos de um ativo e os movimentos de preço de outro ativo, pelo menos na classe de ativos homogêneos. Estudos teóricos tentaram derivar as consequências de tais efeitos de impacto cruzado e estenderam o modelo para execução de comércio ideal de um único ativo para vários ativos onde o modelo inclui efeitos de impacto cruzado. No entanto, isso leva a um grande número de coeficientes de impacto cruzado que precisam ser estimados.

  • 00:15:00 Nesta seção, os apresentadores discutem o conceito de impacto cruzado e sua relevância na explicação de fenômenos de mercado observáveis. Eles questionam se uma matriz completa de coeficientes de impacto de preços é necessária para explicar as correlações entre retornos de ativos e fluxo de pedidos em um mercado e se uma abordagem mais parcimoniosa é possível. Eles também traçam analogias com a ação à distância na física e discutem a necessidade de um mecanismo subjacente que vincule ativos para estabelecer um impacto causal. O objetivo é projetar um modelo de impacto multiativos que inclua apenas os coeficientes necessários e evite complexidades desnecessárias.

  • 00:20:00 Nesta seção, os palestrantes argumentam que o conceito de impacto cruzado é desnecessário para explicar as co-variações nos movimentos de preços e desequilíbrio no fluxo de ordens observados nos mercados de ações. As correlações observadas podem ser explicadas pelo fato de que os participantes do mercado frequentemente negociam em vários ativos, gerando desequilíbrios de fluxo de ordens correlacionados entre os ativos, o que, por sua vez, leva a correlações nos retornos de diferentes ativos. Os palestrantes apresentam um diagrama de modelo causal que mostra que o preço de um ativo é impulsionado pelo desequilíbrio do fluxo de ordens, que é a soma algébrica de todas as ordens de compra e venda geradas por entidades e estratégias de negociação de vários ativos. Eles argumentam que o modelo de impacto de um único ativo é suficiente para explicar essas correlações e nenhum modelo adicional de impacto cruzado é necessário.

  • 00:25:00 Nesta seção, a visão tradicional de oferta e demanda dirigindo o preço de cada ativo, criando correlações no equilíbrio do fluxo de pedidos, é comparada ao modelo de impacto cruzado que postula um mecanismo que influencia o retorno de um estoque da distância. Essas suposições podem ser testadas com os dados disponíveis sobre fluxo de pedidos e retornos condicionando as variáveis no diagrama e realizando regressões condicionais. Discute-se a construção dos modelos de impacto para múltiplos ativos e o problema de identificação inerente a eles. Um modelo linear com duas variáveis, retornos e OFI, é usado para criar matrizes de coeficientes teta e beta. O fluxo líquido de pedidos para um estoque é definido como o fluxo de entrada para a fila de ofertas menos o fluxo de saída da fila de pedidos.

  • 00:30:00 Nesta seção, Rama Cont e Francesco Capponi discutem a covariância dos retornos com o desequilíbrio do fluxo de ordem e como ele se relaciona com a matriz beta e o impacto cruzado. Eles enfatizam que não há necessidade de ter elementos fora da diagonal em beta para obter elementos fora da diagonal na matriz de covariância, pois a covariância pode vir da correlação de fluxos de ordem ou da matriz de impacto cruzado. O exemplo de duas ações sem correlação nos fluxos de pedidos, mas com coeficientes de impacto cruzado destaca a importância de conhecer a correlação dos fluxos de pedidos para identificar o coeficiente de impacto cruzado. A matriz de covariância é afetada pelos coeficientes de correlação e impacto cruzado no modelo, que podem ser observados com números em diferentes cenários.

  • 00:35:00 Nesta seção, Rama Cont e Francesco Capponi discutem a diferença entre modelar a correlação e o fluxo de pedidos entre estoques e entender o impacto cruzado e modelá-lo. Eles explicam que simplesmente observar uma correlação diferente de zero entre o fluxo de pedidos de um ativo e o retorno de outro ativo não implica que você precise de um coeficiente de impacto cruzado diferente de zero no modelo. Eles também apresentam exemplos de baixa correlação e fluxo de pedidos, alto impacto cruzado e vice-versa para mostrar que é impossível inferir o impacto cruzado apenas a partir dessas covariâncias. Por fim, eles discutem os dados que analisaram, que incluem o fluxo líquido de pedidos, desequilíbrios no fluxo de pedidos e retornos de 67 ações do NASDAQ 100 ao longo de dois anos e meio, e explicam como redefiniram e normalizaram os retornos e os desequilíbrios no fluxo de pedidos.

  • 00:40:00 Nesta seção do vídeo, os palestrantes examinam a relação entre a correlação dos retornos das ações e os desequilíbrios do fluxo de pedidos de diferentes ações. Ao traçar a correlação dos retornos das ações com os desequilíbrios do fluxo de pedidos de outras ações, os palestrantes demonstram que a grande maioria dos pares de ações tem uma correlação muito próxima da igualdade, sugerindo que a correlação entre os retornos e os desequilíbrios do fluxo de pedidos pode ser simplesmente devido ao correlação entre diferentes saldos. Para testar se um modelo de impacto de mercado multivariado é necessário, os palestrantes usam uma análise de regressão e descobrem que os coeficientes de impacto cruzado são muito próximos de zero, indicando que, mesmo que fossem identificáveis, eles teriam apenas um pequeno impacto no impacto total.

  • 00:45:00 Nesta seção, Rama Cont e Francesco Capponi propõem uma abordagem diferente para identificar a importância dos coeficientes de impacto cruzado e os principais impulsionadores dos custos de execução. Eles sugerem o uso de uma análise de componentes principais (PCA) nas matrizes de correlação de retornos e equilíbrio do fluxo de pedidos e o uso de um modelo de fator para o desequilíbrio do fluxo de pedidos. O primeiro componente principal do modelo de fator é usado para testar a significância restante de qualquer coeficiente de impacto de cruzamento e o resíduo da regressão é interpretado como o fluxo de ordem idiossincrático devido apenas à ação naquele estoque. A abordagem visa separar a contribuição do componente idiossincrático do fluxo de ordens próprias de uma ação do componente comum devido à negociação cruzada.

  • 00:50:00 Nesta seção do vídeo, Rama Cont e Francesco Capponi discutem a correlação entre os primeiros componentes principais de retornos e saldos de fluxo de pedidos de ETFs que seguem o Nasdaq 100 e S&P 500. Eles descobrem que o primeiro componente principal de retorna tem uma correlação de 91% com o retorno geral do ETF que acompanha o Nasdaq 100. Da mesma forma, o primeiro componente principal do saldo do fluxo de pedidos tem uma correlação de 82% com o saldo do fluxo de pedidos no ETF QQQ que acompanha o mesmo índice . Eles também observam que os primeiros componentes principais dos retornos e do desequilíbrio do fluxo de pedidos estão relacionados ao movimento geral do mercado. Isso os leva a explicar sua abordagem em duas etapas para eliminar a comunalidade no fluxo de pedidos e aumentar os retornos.

  • 00:55:00 Nesta seção, Rama Cont e Francesco Capponi discutem o impacto cruzado nos mercados de ações, que se refere a como o desequilíbrio do fluxo de ordens de uma ação e a semelhança do fluxo de ordens entre as ações afetam o retorno de uma ação. Eles mostram que o coeficiente de auto-impacto é um determinante importante do retorno de uma ação, enquanto o coeficiente de impacto cruzado é muito pequeno e quase todos se tornam negativos quando você leva em consideração o componente principal. Eles então testam o quanto os termos de impacto cruzado contribuem para explicar o custo de execução dos retornos e avaliam se são estatisticamente e economicamente significativos, ao mesmo tempo em que questionam sua estabilidade ao longo do tempo.

  • 01:00:00 Nesta seção, Rama Cont e Francesco Capponi discutem o impacto do impacto cruzado e sua importância nos mercados de ações. Eles concluem que, embora as estatísticas possam ser significativas, economicamente, a magnitude é pequena e dificilmente há qualquer diferença distinguível no poder explicativo ao incluir todos os outros desequilíbrios de fluxo de ordem na regressão. Eles defendem uma maneira mais parcimoniosa de modelar o impacto e sugerem usar apenas o equilíbrio do fluxo de pedidos do próprio estoque e a correlação dos desequilíbrios do fluxo de pedidos para modelar o impacto. Eles também enfatizam a importância da estabilidade ao longo do tempo e analisam as subamostras para garantir que os coeficientes de impacto cruzado sejam estáveis.

  • 01:05:00 Nesta seção, Rama Cont e Francesco Capponi resumem suas descobertas sobre modelos de impacto cruzado em mercados de ações. Eles argumentam que o fenômeno da covariação positiva entre retornos e equilíbrio do fluxo de pedidos entre diferentes estoques pode ser explicado sem a introdução de modelos de alta dimensão com muitos coeficientes. Um modelo simples de um fator para o fluxo de ordens em desequilíbrio é suficiente para explicar esses padrões de correlações cruzadas de retornos. Eles sugerem que uma abordagem melhor para a construção de modelos de impacto de vários ativos é focar na construção de modelos de fatores comuns no fluxo de pedidos, como um modelo de fator linear ou análise de componentes principais do fluxo de pedidos. A implantação de um modelo de impacto de um único ativo relacionando o fluxo do pedido ao seu próprio retorno é suficiente para explicar a amplitude do custo de execução na execução do portfólio.

  • 01:10:00 Nesta seção, Rama Cont e Francesco Capponi discutem as aplicações práticas de seu modelo, especificamente no contexto de execução de portfólio e análise de custo de transação (TCA). O modelo permite quantificar os custos de execução, levando em consideração a comunalidade dos fluxos de pedidos entre os ativos. A diferença nos custos de execução entre um único ativo e um portfólio está ligada ao fator de comunalidade. O modelo pode ser usado para medir os custos de execução em nível de carteira e ajuda a entender melhor o impacto das carteiras de negociação. Eles sugerem o uso de um bom modelo para o impacto de um único ativo, juntamente com um bom modelo para os fatores comuns no fluxo de ordem entre os ativos.

  • 01:15:00 Nesta seção, os palestrantes discutem o uso do primeiro componente principal dos retornos na equação 12. Eles observam que há uma alta correlação entre o uso do componente principal do OFI e o uso dos retornos, mas argumentam que queriam seguir sua análise causal e modelar a comunalidade para que os desequilíbrios expliquem os retornos. Eles enfatizam a importância de ter um modelo causal e interpretação para a equação. Os palestrantes agradecem a atenção do público e expressam sua vontade de compartilhar mais materiais e atualizações.
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
Rama Cont and Francesco Capponi: "Cross-Impact in Equity Markets"
  • 2020.10.13
  • www.youtube.com
Title: "Cross-Impact in Equity Markets" Joint Work with Francesco CapponiAbstract: The empirical finding that market movements in stock prices may be correl...
 

Adam Grealish: "Uma abordagem algorítmica para o investimento pessoal"



Adam Grealish: "Uma abordagem algorítmica para o investimento pessoal"

Adam Grealish, diretor de investimentos da Betterment, fornece informações sobre a abordagem algorítmica da empresa para investimentos pessoais e sua estratégia baseada em objetivos. A Betterment utiliza um modelo robo-advisory, alavancando algoritmos e intervenção humana mínima para fornecer consultoria e gerenciamento de investimentos a seus clientes.

Grealish destaca três fatores principais que determinam os resultados do investimento: manter os custos baixos, otimização de impostos e negociação inteligente. Embora todos os fatores sejam importantes, a Betterment enfatiza fortemente os três primeiros. A empresa emprega a técnica de otimização Black Litterman para construir portfólios globalmente diversificados e monitora continuamente os pesos-alvo em sua vasta base de clientes de meio milhão de indivíduos. A otimização de impostos, incluindo estratégias como coleta de prejuízos fiscais, localização de ativos e classificação de lotes, oferece oportunidades para superar o mercado.

Na segunda parte de sua discussão, Grealish distingue a abordagem da Betterment dos tradicionais consultores financeiros automatizados. Ao contrário da abordagem "tamanho único" dos consultores robóticos tradicionais, a abordagem algorítmica da Betterment considera fatores individuais, como metas, horizonte de tempo e tolerância a riscos. Essa personalização permite carteiras personalizadas adaptadas à situação única de cada investidor. A Betterment também oferece recursos adicionais, como coleta de prejuízos fiscais e portfólios coordenados por impostos para maximizar a eficiência tributária e aumentar os retornos.

Grealish investiga ainda mais as especificidades das estratégias de investimento da Betterment. A empresa incentiva a estabilidade de alocação de longo prazo, ajustando os portfólios apenas uma vez por ano para avançar em direção à alocação desejada. Eles utilizam algoritmos de reequilíbrio baseados em gatilhos para gerenciar o desvio da alocação de destino e minimizar os riscos. As carteiras da Betterment são construídas usando ETFs baseados em capitalização de mercado ampla, otimizando a exposição a classes de ativos de risco com prêmios de risco associados.

A otimização de custos é um aspecto significativo da filosofia de investimento da Betterment. A empresa aproveita a tendência de redução das taxas dos ETFs, revisando trimestralmente todo o universo de ETFs. O processo de seleção considera fatores além do índice de despesas, incluindo erros de rastreamento e custos de negociação, resultando em portfólios de baixo custo para os clientes da Betterment.

A otimização fiscal é outro elemento crucial da estratégia da Betterment. Grealish explica a importância do gerenciamento de impostos e descreve três estratégias eficazes: coleta de prejuízos fiscais, localização de ativos e classificação de lotes. A colheita de prejuízos fiscais envolve a venda de títulos com prejuízo para realizar perdas de capital para fins fiscais, enquanto a localização de ativos maximiza os retornos após os impostos, alocando ativos em contas estrategicamente. A triagem de lotes envolve a venda de lotes com as maiores perdas primeiro para otimizar os benefícios fiscais.

Grealish reconhece o impacto do comportamento do investidor nos resultados do investimento. A Betterment combate o comportamento negativo implementando padrões inteligentes, usando automação e incentivando o investimento baseado em metas. A empresa emprega design intencional e análise de dados para levar os usuários a agir quando se desviam de suas metas financeiras.

Em termos de desenvolvimentos futuros, Grealish discute os usos potenciais da IA no espaço fintech. A Betterment está explorando aplicativos de IA para automatizar tarefas financeiras, como consultoria robótica e gerenciamento de caixa. A empresa visa tornar os serviços financeiros que antes eram limitados a indivíduos e instituições de alto patrimônio líquido acessíveis a um público mais amplo. No entanto, a complexidade de individualizar a preparação de impostos apresenta desafios nessa área.

No geral, Adam Grealish fornece informações valiosas sobre a abordagem algorítmica da Betterment para investimentos pessoais, enfatizando estratégias baseadas em objetivos, otimização de custos, gerenciamento de impostos e mitigação de comportamento.

  • 00:00:00 Adam Grealish apresenta o Betterment, que é uma plataforma on-line automatizada de consultoria de investimentos que usa uma abordagem baseada em metas para o gerenciamento de investimentos. Seu objetivo é oferecer altos retornos aos clientes por meio de estratégias de investimento ideais. A Betterment tem um negócio direto ao cliente, uma plataforma de tecnologia de marca branca para consultores financeiros e um negócio 401k. O termo "roboadvisor" descreve com precisão a abordagem da Betterment, pois fornece consultoria financeira digital por meio de algoritmos executados por software com intervenção humana mínima.

  • 00:05:00 Adam Grealish, o Diretor de Investing for Betterment, explica sua abordagem de investimento, que é baseada em algoritmos e modelagem matemática. A plataforma Betterment oferece uma experiência de gestão de investimentos totalmente independente, sem a necessidade de interação humana, bem como acesso a consultores humanos para quem quiser. De acordo com Grealish, os principais fatores que determinam os resultados do investimento são manter os custos baixos, otimização de impostos, negociação inteligente, alocação de ativos e seleção de títulos. No entanto, a Betterment se concentra principalmente nos três primeiros, pois são considerados os mais determinísticos na consecução de metas financeiras, ao mesmo tempo em que coloca menos ênfase na alocação de ativos e na seleção de títulos. Eles usam a técnica de otimização Black Litterman para criar um portfólio diversificado globalmente e obter o retorno ideal para seus investidores.

  • 00:10:00 Nesta seção, Adam Grealish discute como eles ajudam os investidores a escolher quanto risco assumir com base em metas de investimento e horizontes de tempo específicos. O aplicativo fornece recomendações sobre quanto risco correr, com projeções sobre como isso pode acontecer ao longo do tempo. Em seguida, eles gerenciam os pesos-alvo por meio do monitoramento diário, fazendo isso em meio milhão de clientes com até 800.000 portfólios individuais monitorados diariamente. O reequilíbrio é visto principalmente como uma ferramenta de gerenciamento de risco e é feito de maneira eficiente em termos fiscais quando surgem fluxos de caixa, quando os dividendos são pagos ou quando as taxas são retiradas da conta. Grealish discute um artigo de Bushi (2012) que destaca os benefícios de rebalancear uma carteira com títulos não correlacionados ao longo do tempo. Finalmente, eles diferenciam metas com base em perfis de liquidação e constroem um glide path com base na extensão do horizonte.

  • 00:15:00 Adam discute como funciona sua abordagem algorítmica para investimentos pessoais. Eles incentivam os investidores a manter sua alocação por um longo período, ajustando-a apenas uma vez ao ano, para avançar em direção à alocação-alvo. A equipe ajusta a alocação de meta de seus clientes mensalmente, o que permite que os dólares marginais se aproximem da meta de risco correta sem ter que fazer uma negociação de rebalanceamento que envolva riscos potenciais. Suas carteiras são inteiramente baseadas em ETFs baseados em capitalização de mercado ampla e otimizam sua exposição a classes de ativos de risco com um prêmio de risco associado a elas. A equipe emprega um algoritmo de reequilíbrio baseado em gatilho que mede o desvio de uma alocação de destino e, quando fica muito longe, eles reequilibram, gerenciando o risco. Por fim, Grealish observa que há uma grande desconexão entre as pessoas que sabem muito sobre finanças e as que sabem muito sobre finanças pessoais.

  • 00:20:00 Nesta seção, Adam Grealish discute a tendência de diminuir as taxas dos ETFs, o que tem sido vantajoso para a Betterment, pois é uma empresa independente de consultoria robótica que não está vinculada a nenhuma família de fundos individual. A Betterment tem um processo trimestral de seleção de fundos em que todo o universo de investimento de ETFs é revisado e eles são classificados não apenas em seu índice de despesas, mas também em outros fatores, como erro de rastreamento e custos de negociação. A melhoria se concentra no custo anual total de propriedade ou na "pontuação do taco", que é determinada pelo custo de manutenção, custo de comercialização e outros fatores. O processo resulta em um portfólio de baixo custo para melhoria.

  • 00:25:00 Nesta seção do vídeo, Adam Grealish discute vários aspectos da abordagem de investimento da Wealthfront. Ele explica que seus retornos esperados são gerados por meio da otimização reversa do cap m, e eles usam um mecanismo de simulação de Monte Carlo que opera no nível do lote de impostos para testar suas estratégias fiscais. Grealish também observa que desintermediar a indústria de fundos mantendo títulos individuais é uma ideia interessante que pode levar a mais oportunidades de coleta de impostos e personalização, mas tem custos operacionais associados a ela. Além disso, ele explica como a Wealthfront pesa os custos para manter e negociar investimentos para fornecer uma medida precisa de seu custo total.

  • 00:30:00 Adam Grealish, CEO da Betterment, discute a importância da gestão de impostos no investimento de varejo e descreve três estratégias para uma gestão de impostos eficaz: colheita de perdas fiscais, localização de ativos e classificação de lotes. A colheita de prejuízos fiscais envolve a venda de títulos com prejuízo para realizar perdas de capital para fins fiscais e a compra de títulos correlacionados para manter a exposição ao mercado. A melhoria visa maximizar as perdas colhidas, mantendo as alocações de risco alvo e evitando vendas de lavagem, que ocorrem quando um investidor vende um título com prejuízo e compra um título substancialmente idêntico em 30 dias. Grealish também observa que a gestão tributária apresenta oportunidades para superar o mercado e pode resultar em evasão fiscal substancial em determinadas situações.

  • 00:35:00 Adam desaconselha a troca cega de um título primário após 30 dias para evitar aumentar sua obrigação fiscal, pois você pode obter um dólar em perdas de longo prazo, mas quatro dólares em ganhos de capital de curto prazo, levando a perdas negativas arbitragem fiscal. Ele também destaca que a taxa de imposto mais baixa do dividendo qualificado só entra em vigor após um período de 60 dias, e voltar muito rapidamente pode prejudicar sua eficiência fiscal. Grealish recomenda a escolha de um título secundário com alta correlação com o primário, taxas comparáveis e liquidez suficiente para garantir a eficiência fiscal. Quando se trata de colheita, Grealish sugere estabelecer um limite em que os benefícios esperados devem ser maiores que os custos de transação e os custos de oportunidade, que podem ser determinados usando a teoria das opções, principalmente se os títulos tiverem alta volatilidade. O teste de retorno de Grealish mostra uma compensação anual de quase 2%, mas ele adverte que seguir cegamente essa estratégia nem sempre é o ideal.

  • 00:40:00 Nesta seção, Adam Grealish discute os benefícios da coleta de prejuízos fiscais e dá conselhos sobre como aplicá-los de forma eficaz em uma conta pessoal. A coleta de prejuízos fiscais pode ser uma maneira eficaz de gerenciar riscos, e os resultados testados mostram que isso impulsiona o alfa após os impostos. No entanto, os usuários precisam considerar os custos de transação e o custo de oportunidade de vendas futuras de lavagem ao aplicar essa estratégia para contas pessoais. A localização de ativos é outra estratégia que pode maximizar os retornos após impostos. Ao alocar ativos entre contas para preservar a alocação de destino e o risco do portfólio, os usuários podem aumentar seus retornos após impostos.

  • 00:45:00 Adam Grealish discute tratamentos fiscais para diferentes tipos de títulos e fornece uma abordagem algorítmica para investimentos pessoais. Ele explica como otimizar o investimento em três contas movendo os ativos ineficientes para contas com benefícios fiscais e os eficientes para tributáveis. Isso envolve considerar as taxas de crescimento, rendimentos de dividendos, impostos de liquidação e índices de receita de dividendos qualificados dos ativos e configurar o problema como um problema de programação linear. Essa abordagem algorítmica para investir adiciona cerca de 50 pontos base anualmente a uma estratégia não otimizada.

  • 00:50:00 Nesta seção, Adam Grealish fala sobre o gerenciamento de lotes de impostos e como a Betterment ajuda seus usuários a classificar todos os seus lotes e vender os maiores prejuízos antes de passar para os ganhos e vender os menores primeiro. Ele também destaca a importância das perdas para fins fiscais e como elas podem ser usadas contra ganhos de capital, baixadas contra o lucro ou transportadas. Grealish então discute a questão da incerteza da taxa de impostos e como a Betterment a aborda por meio de seu processo de lixo negro, incorporando o desempenho superior após os impostos como uma visão e especificando um nível de confiança em torno disso. Eles então fazem uma otimização robusta em seus retornos posteriores e constroem um portfólio ideal a partir disso, enquanto revisitam suas suposições de mercado de capitais e localização estratégica de ativos anualmente. Finalmente, ele discorre sobre o aumento da alocação de títulos muni em sua carteira tributável devido ao seu maior desempenho esperado após os impostos.

  • 00:55:00 Adam Grealish discute o tema do comportamento e como isso afeta os investidores de varejo. Ele explica como os investidores tendem a comprar quando o mercado sobe e vender quando ele cai, o que leva a um desempenho inferior e à diminuição da riqueza. Para combater isso, os consultores robóticos definem padrões inteligentes, usam a automação e incentivam o investimento baseado em metas para promover um melhor comportamento. Adam também menciona estudos que quantificam o baixo desempenho anualizado devido ao comportamento do investidor, normalmente variando de 1 a 4%.

  • 01:00:00 Adam discute a abordagem da Betterment para combater o mau comportamento de investimento por meio de design intencional e análise de dados. Ele observa que cerca de três quartos de suas contas não estão envolvidas em timing de mercado, e a empresa monitora de perto a atividade do cliente. A Betterment usa o design de cores para indicar quando um cliente está fora do caminho para atingir sua meta financeira, levando-o a agir para voltar aos trilhos. Em tempos de incerteza do mercado, a empresa confia em sua plataforma para testar diferentes mensagens e intervenções e descobriu que notificar os clientes sobre tendências negativas do mercado causava alarme e levava a resultados negativos. Em vez disso, as intervenções e mensagens dentro do aplicativo provaram ser mais eficazes na redução de resultados negativos e no aumento dos depósitos de clientes.

  • 01:05:00 Nesta seção, Adam Grealish, diretor de investimentos da Betterment, discute até que ponto o investimento algorítmico é motivado pelo desejo de coletar ativos e se é ético. Ele aponta que o sistema afeta principalmente indivíduos que estão fora do alvo em seus objetivos ou à margem de estar no caminho certo, e diz que há maneiras melhores de extrair ativos se esse for o objetivo da empresa. Outras estratégias que ele discute incluem a alteração de poupanças e depósitos ou a alteração do plano de metas. Grealish também descreve a abordagem da Betterment para mitigar vieses comportamentais, como seu recurso de "visualização do impacto fiscal" que mostra aos clientes potenciais passivos fiscais e provou ser eficaz na redução da probabilidade de tomada de decisão precipitada.

  • 01:10:00 Adam discute os usos potenciais da IA no espaço fintech. Ele acredita que alguns dos primeiros lugares em que a IA será vista é na automação de peças periféricas de finanças, como consultoria robótica e gerenciamento de caixa. A Betterment, por exemplo, está explorando o uso de IA para mapear uma conta externa para um ticker proxy e usar dados de transações para aconselhar as pessoas sobre quanto dinheiro elas devem ter em sua conta corrente. Grealish também sugere que, a longo prazo, a Betterment visa colocar um consultor financeiro no centro da vida financeira de todos e tornar amplamente disponíveis coisas que estavam disponíveis apenas para investidores institucionais e patrimônio líquido ultra-alto, incluindo a preparação de impostos. No entanto, individualizar a preparação de impostos tornaria o espaço do problema muito mais complexo.

  • 01:15:00 Adam Grealish, da Betterment, explica que os títulos municipais específicos do estado não estão na plataforma Betterment porque nem sempre é óbvio que estar no estado é a melhor opção, e é um pouco como um item fora do menu . Embora a plataforma Betterment permita que você vincule contas externas para quaisquer outras participações imobiliárias e rastreie manualmente seu patrimônio líquido, as avaliações de retorno de risco com uso intensivo de recursos de outros fundos também não estão disponíveis. A Betterment concentra-se em pensar em classes de ativos em vez de excluir uma classe de ativos por motivos fiscais e é única no espaço de robo-advisory devido à sua estrutura como um consultor independente e sua inserção nas transações diárias dos clientes, tornando-se um consultor financeiro de serviço completo . A empresa executa alguns de seus cálculos de pesquisa na AWS, embora ainda não seja um grande usuário da AWS ou das APIs públicas existentes.

  • 01:20:00 Nesta seção, Adam Grealish discute o processo de negociação para Betterment. Embora eles considerassem a internalização dos fluxos de pedidos para seus clientes, essa opção acabou não sendo buscada devido à sua classificação como um local de negociação alternativo. Em vez disso, a Betterment tem sua mesa de negociação, com negociações executadas via Apex, que também as compensa. Os custos de transação não são cobrados dos clientes, apenas a taxa fixa da plataforma, o que torna as negociações pouco frequentes. Os ETFs da Betterment são compostos por ações e títulos, ao mesmo tempo em que oferecem economia de impostos nos fundos de títulos. Além disso, a Betterment rastreia todos os retornos líquidos de seu retorno esperado, pois isso pode ser dividido em retornos realizados e esperados.
Adam Grealish: "An Algorithmic Approach to Personal Investing"
Adam Grealish: "An Algorithmic Approach to Personal Investing"
  • 2020.09.17
  • www.youtube.com
In this talk, Adam Grealish of Betterment will explore how technology can be used to improve investor outcomes. Technology and automation can play a signific...
 

Miquel Noguer i Alonso: "Desenvolvimento mais recente em aprendizado profundo em finanças"



Miquel Noguer i Alonso: "Desenvolvimento mais recente em aprendizado profundo em finanças"

Neste vídeo abrangente, Miquel Noguer i Alonso explora o potencial do aprendizado profundo no campo financeiro, apesar das complexidades inerentes e da natureza empírica do setor. O aprendizado profundo oferece recursos valiosos na captura de relacionamentos não lineares e no reconhecimento de padrões recorrentes, principalmente em dados não estruturados e aplicativos financeiros. No entanto, também apresenta desafios como overfitting e eficácia limitada em situações não estacionárias. Para enfrentar esses desafios, a integração de fatores, análise de sentimento e processamento de linguagem natural podem fornecer informações valiosas para gerentes de portfólio que lidam com grandes quantidades de dados. É importante observar que não existe um modelo único para todos, e as redes neurais profundas não devem substituir os modelos tradicionais de benchmark. Além disso, Alonso destaca a importância do BERT, um modelo de linguagem de código aberto e altamente eficiente que demonstra um profundo conhecimento de números em textos financeiros, tornando-o particularmente valioso para conjuntos de dados financeiros.

Ao longo do vídeo, Alonso compartilha informações importantes e discute vários aspectos da utilização de modelos de aprendizado profundo em finanças. Ele explora a transformação de dados financeiros em imagens para análise usando redes neurais convolucionais, alavancando codificadores automáticos para compactação de dados não lineares e aplicando redes de memória para análise de séries temporais. A colaboração entre especialistas de domínio e profissionais de aprendizado de máquina é enfatizada como um fator crítico para abordar efetivamente problemas relacionados a finanças usando técnicas de aprendizado profundo.

Alonso investiga os desafios encontrados ao trabalhar com aprendizado profundo em finanças, como a natureza dinâmica do processo de geração de dados e a necessidade de desenvolver modelos que possam se adaptar a essas mudanças. Ele destaca conceitos da teoria da informação, complexidade e compactação de informações para encontrar a representação mais concisa. O Teorema da Aproximação Universal é discutido, enfatizando a capacidade das redes neurais profundas de aproximar qualquer função com precisão arbitrária, mas a generalização não é garantida. O palestrante recomenda uma exploração mais aprofundada de trabalhos de pesquisa sobre regularização, dimensões intrínsecas de redes neurais e redes neurais superparametrizadas.

O palestrante também aborda a ideia de um regime de interpolação, onde redes neurais profundas podem descobrir classes de função maiores que identificam funções de interpolação com normas menores. Eles discutem os aspectos qualitativos das redes neurais profundas, enfatizando a importância variável de diferentes camadas e seu papel na previsão de séries temporais. No entanto, enfatiza-se que os modelos lineares ainda servem como benchmarks, e os resultados dos modelos de aprendizagem profunda devem ser comparados com eles.

Alonso fornece informações sobre o desempenho de modelos de aprendizado profundo em finanças, mostrando os resultados do uso de redes de memória de longo prazo com vários estoques e demonstrando sua superioridade sobre outras redes neurais. Os modelos de aprendizagem profunda são mostrados para superar os modelos lineares na seleção das melhores ações no S&P 500, resultando em melhores índices de informação fora da amostra. O palestrante ressalta que o aprendizado profundo tem um bom desempenho consistente e pode ser uma escolha confiável ao selecionar um modelo.

Os fatores desempenham um papel crucial em modelos de aprendizado profundo para finanças, permitindo a exploração de relações não lineares com retornos. A utilização da não linearidade distingue esta abordagem dos exercícios de séries temporais puras. O palestrante também enfatiza a importância da seleção de parâmetros durante o período de treinamento e adverte contra assumir que o uso de mais dados sempre leva a uma maior precisão. É importante observar que esses modelos não incorporam custos ou considerações da vida real, pois são principalmente para fins de pesquisa com base em dados históricos.

O palestrante esclarece o foco de seu artigo, destacando que a intenção não é afirmar que as redes neurais profundas são superiores, mas sim enfatizar a necessidade de serem usadas juntamente com os modelos tradicionais de benchmark. A importância de capturar relacionamentos não lineares e entender os ciclos recorrentes é discutida, juntamente com a necessidade de considerar parâmetros como a janela de aprendizado. As redes neurais profundas podem fornecer informações únicas em cenários específicos, capturando efeitos de segunda ou terceira ordem que os modelos lineares podem ignorar. No entanto, enfatiza-se que não existe um modelo universal e as redes neurais profundas devem complementar os modelos de referência existentes, em vez de substituí-los.

A aplicação do processamento de linguagem natural, especificamente análise de sentimento, em finanças também é explorada. Dada a grande quantidade de informações geradas nos mercados, as ferramentas de big data são essenciais para investigar e analisar espaços de alta dimensão. O aprendizado de máquina, especialmente o aprendizado profundo, é valioso para lidar com esses desafios. Os modelos de linguagem podem ser aproveitados para tarefas como análise de sentimentos, que podem fornecer informações sobre o momento do mercado. A raspagem da internet tem se mostrado uma abordagem eficiente para detectar mudanças nas informações que podem indicar mudanças no mercado. No geral, o processamento de linguagem natural oferece informações valiosas para gerentes de portfólio que lidam com grandes volumes de dados.

No vídeo, o palestrante aprofunda as duas abordagens de análise de sentimento em finanças. O método tradicional envolve contar a frequência de palavras positivas e negativas, enquanto a abordagem mais avançada utiliza aprendizado profundo e incorporação de palavras para compreender o significado contextual e semântico das palavras. O palestrante destaca a eficácia da representação de codificador bidirecional de transformadores (BERT), um modelo de linguagem de ponta que oferece uma representação de palavras mais precisa e eficiente. A capacidade do BERT de entender números em textos financeiros é particularmente crucial para uma análise financeira precisa. Outros aproximadores de funções, como perceptrons multicamadas, redes de memória e covnets, também são mencionados como ferramentas úteis em finanças.

Além disso, o palestrante discute o conceito de transformar dados financeiros em imagens e empregar redes neurais convolucionais para análise. Essa abordagem se mostra especialmente benéfica para problemas de aprendizado não supervisionado. É introduzido o uso de autoencoders para compressão de dados não lineares e redes de memória para análise de séries temporais. As redes de memória podem ser adequadas para analisar dados de séries temporais se o ambiente for suficientemente estável. Além disso, o palestrante aborda o uso de modelos transformadores para processamento de linguagem em finanças e fornece informações sobre sua implementação usando o TensorFlow.

Em relação à implementação de modelos de aprendizado profundo de código aberto em finanças, o palestrante enfatiza que, embora possa ser necessário treinamento específico para aplicações financeiras, é uma meta alcançável devido à abundância de código aberto disponível. A colaboração entre especialistas de domínio e aprendizes de máquina é crucial para resolver problemas relacionados a finanças, pois existem inúmeras oportunidades para alavancar o aprendizado de máquina no campo. O palestrante observa que, embora as abordagens artesanais de processamento de linguagem natural sejam atualmente utilizadas em finanças, os modelos de aprendizado profundo ainda precisam ser amplamente adotados no setor.

O vídeo também investiga os métodos tradicionais de controle artesanal em finanças, em que os indivíduos usam dicionários para descrever entidades como o JP Morgan, garantindo ao mesmo tempo que não haja erros de digitação. A eficácia de vários algoritmos de aprendizado de máquina, como redes de memória de longo prazo e BERT, é discutida. O BERT é considerado o estado da arte em pesquisas publicadas. O potencial do aprendizado de máquina para investimentos transversais também é explorado, sugerindo o uso de fatores ou retornos para auxiliar as máquinas na interpretação de retornos ou fatores planos.

Abordando a dificuldade de encontrar valores ótimos em aprendizado profundo, o palestrante reconhece que pode ser um problema NP. Cientistas de dados humanos com experiência e intuição devem fazer escolhas heurísticas com base em seus conhecimentos. O desafio de entender e interpretar redes neurais profundas é destacado, pois até mesmo os matemáticos lutam para formular equações para explicar seu desempenho excepcional. A análise qualitativa é freqüentemente empregada em tais casos. No entanto, com o tempo e depois de trabalhar com vários conjuntos de dados, os cientistas de dados podem desenvolver uma intuição para selecionar os parâmetros mais apropriados para situações específicas.

  • 00:00:00 Miguel Noguer i Alonso discute a aplicação de deep learning em finanças. Ele observa que o aprendizado profundo foi bem-sucedido em outras áreas, como reconhecimento de imagem e modelos de linguagem, mas é complicado ver como pode ser aplicado com sucesso em finanças devido à natureza empírica e ruidosa do setor. Apesar da complexidade, existem possibilidades empolgantes para o uso de aprendizado profundo em dados não estruturados e aplicativos financeiros. O Education Finance Institute está colaborando com universidades e empresas para pesquisar o uso de IA em finanças.

  • 00:05:00 Nesta seção do vídeo, Miquel Noguer i Alonso discute o potencial do uso de modelos de aprendizado de máquina em finanças e a falta de pesquisas nessa área. Ele continua destacando os vários campos do aprendizado de máquina que podem ser usados em finanças, incluindo aprendizado supervisionado, não supervisionado e por reforço. Noguer i Alonso incentiva os pesquisadores a se concentrarem na construção de mais ferramentas para o aprendizado não supervisionado, pois atualmente há pesquisas limitadas nessa área. Ele conclui afirmando que não há lugar em finanças onde o aprendizado de máquina não possa ser utilizado para fins como prever perdas de crédito e organizar conjuntos de dados.

  • 00:10:00 O palestrante apresenta o aprendizado profundo como um mecanismo para aprendizado impossível, problemas de regressão e aprendizado não supervisionado por meio do uso de funções não lineares. A rede neural é explicada como uma função não linear com um grande número de parâmetros, o que tem levado a alertas de estatísticos e engenheiros sobre sua viabilidade. No entanto, os pioneiros do aprendizado profundo encontraram as combinações certas de funções de ativação, número de camadas e neurônios que o fazem funcionar contra as expectativas estatísticas. O palestrante também discute as várias arquiteturas de aprendizado profundo, como redes neurais convolucionais, redes neurais recorrentes e transformadores.

  • 00:15:00 O palestrante discute os prós e contras do aprendizado profundo em finanças. No lado positivo, os modelos de aprendizado profundo são melhores para capturar a não linearidade e a natureza expressiva dos conjuntos de dados e mostram eficiência em séries temporais multivariadas. Eles também são competitivos com o aumento de árvores, uma das melhores técnicas para dados categóricos e numéricos. No entanto, os principais contras são o overfitting devido ao grande número de parâmetros em modelos de aprendizado profundo e sua falta de eficácia em situações não estacionárias, o que é um grande problema em finanças, pois as séries temporais mudam constantemente. O palestrante observa que os modelos atuais não oferecem boas soluções para esse problema.

  • 00:20:00 Miquel Noguer i Alonso explica os desafios enfrentados pelo aprendizado profundo em finanças, particularmente na natureza mutável do processo de geração de dados e como criar modelos que possam funcionar dentro dele. Uma solução que ele sugere vem da teoria da informação; a ideia de complexidade e compactação de informações no programa mais curto possível. Ele também discute o Teorema da Aproximação Universal e como ele garante que redes profundas possam aproximar qualquer coisa com precisão arbitrária, mas não é garantido que generalizem. Ele encoraja os leitores a ler um artigo da Sun que argumenta que a regularização não é suficiente para a generalização e recomenda artigos sobre as dimensões intrínsecas de redes neurais e redes neurais superparametrizadas.

  • 00:25:00 Nesta seção, o palestrante fala sobre um novo regime chamado regime de interpolação, onde redes profundas podem ser capazes de escrever alguns certificados tendo um grande número de gravidade retornado, o que pode levar à descoberta de grandes classes de funções que encontram funções de interpolação com normas menores. A ideia é encontrar coisas mais simples com esse número de funcionalidades. Eles também discutem os aspectos qualitativos dos modelos, como todas as camadas não são criadas iguais e o papel das redes neurais profundas na previsão de séries temporais. No entanto, os modelos de benchmark para eles ainda são os modelos lineares, e eles precisam comparar os resultados com os benchmarks.

  • 00:30:00 O palestrante discute o desempenho de modelos de aprendizado profundo em finanças. Eles demonstram os resultados do uso de redes de memória de longo prazo com 30 estoques em vez de apenas um e observam que o erro absoluto é menor em comparação com outras redes neurais. O palestrante também mostra como os modelos de aprendizado profundo superam os modelos lineares na seleção das melhores ações no S&P 500, resultando em melhores índices de informação fora da amostra. No geral, o aprendizado profundo é consistentemente próximo dos melhores modelos e é uma boa escolha ao escolher um modelo às cegas.

  • 00:35:00 O palestrante discute o uso de fatores em modelos de aprendizado profundo para finanças. Fatores como qualidade, valor e momento são usados para investigar relações não lineares com retornos. A diferença entre este método e um exercício de série temporal pura é o uso de não linearidade. O palestrante também discute a importância dos parâmetros do período de treinamento, lembrando que o uso de mais dados não significa necessariamente melhor precisão. O modelo não inclui custos ou considerações da vida real, pois é puramente para fins de pesquisa e baseado em dados anteriores.

  • 00:40:00 Nesta seção, o palestrante discute o documento que está atualizando e esclarece que a alegação no documento não é que as deep nets são melhores, mas sim que elas precisam ser executadas juntamente com os modelos tradicionais de benchmark. Além disso, o palestrante explica que redes profundas são úteis para capturar relacionamentos não lineares e aprender ciclos corretos. No entanto, os parâmetros, como a janela em que as redes aprendem, também precisam ser considerados. Além disso, redes profundas podem nos dizer coisas diferentes em alguns regimes de reparo devido ao aprendizado de efeitos de segunda ou terceira ordem que um modelo linear pode perder. O palestrante também enfatiza que não existe um modelo único para todos e que as deep nets não devem substituir os modelos tradicionais de benchmark.

  • 00:45:00 Miguel Noguer i Alonso discute o uso do processamento de linguagem natural em finanças, especificamente análise de sentimento. Com a grande quantidade de informações geradas nos mercados, são necessárias ferramentas de big data para investigar, e o aprendizado de máquina, especialmente o aprendizado profundo, pode ser útil para lidar com espaços de alta dimensão. Os modelos de linguagem podem ser usados para tarefas como análise de sentimento, que pode ser um precursor do momento em finanças. Raspar a internet também provou ser uma maneira eficiente de buscar mudanças de informações que possam indicar mudanças no mercado. No geral, o processamento de linguagem natural pode fornecer informações úteis para gerentes de portfólio ao lidar com grandes quantidades de dados.

  • 00:50:00 Nesta seção, o palestrante discute o uso da análise de sentimentos em finanças e as duas maneiras pelas quais isso pode ser feito: o método tradicional de contagem da frequência de palavras positivas e negativas e o método mais avançado de usar profundidade aprendizado e incorporação de palavras para entender o contexto e a semântica das palavras. O modelo mais avançado é a representação do codificador bidirecional a partir dos transformadores, que permite uma representação mais eficiente e precisa das palavras. Essa tecnologia pode ser útil em coisas como gerenciamento do clima e problemas na cadeia de suprimentos.

  • 00:55:00 Nesta seção, Miquel Noguer i Alonso discute o desenvolvimento mais recente em aprendizado profundo em finanças com foco na arquitetura complicada bidirecional, BERT, e a importância dos números em modelos de linguagem. O BERT é um modelo de linguagem de código aberto altamente eficiente que pode ser usado para treinar conjuntos de dados financeiros, o que pode economizar tempo e esforço humano. Ele tem um desempenho melhor do que outros modelos e é particularmente bom para entender números em textos financeiros, o que é crucial para uma análise precisa. Os perceptrons multicamadas, redes de memória e covnets são outros aproximadores de funções úteis em finanças.

  • 01:00:00 Miguel Noguer i Alonso discute a ideia de transformar dados financeiros em imagens e usar redes neurais convolucionais para analisá-los, o que pode ser particularmente útil para problemas de aprendizado não supervisionado. Ele também apresenta o conceito de codificadores automáticos, que podem ser usados para compactação não linear de dados, e redes de memória, que podem ser adequadas para análise de séries temporais se o ambiente for suficientemente estável. Por fim, Noguer i Alonso menciona o uso de modelos transformadores para processamento de linguagem em finanças e como implementar esses modelos no TensorFlow.

  • 01:05:00 Nesta seção do vídeo, Miquel Noguer i Alonso, Diretor de Inovação Financeira e Professor Sênior de Finanças na ESADE Business School, discute a viabilidade de implementar modelos de deep learning de código aberto em finanças. Ele explica que há muito código-fonte aberto disponível e, embora possa exigir treinamento específico para aplicativos financeiros, não é uma meta inalcançável. Alonso também enfatiza a importância da colaboração entre especialistas de domínio e aprendizes de máquina para resolver problemas relacionados a finanças, pois há muitas oportunidades para aprendizado de máquina em finanças. Além disso, ele observa que, embora existam abordagens artesanais de PNL sendo usadas em finanças, os modelos de aprendizado profundo ainda não são amplamente adotados nesse setor.

  • 01:10:00 Os palestrantes discutem métodos tradicionais de controle artesanal em finanças, que envolvem pessoas usando dicionários para descrever coisas como JP Morgan e garantir que não haja erros de digitação. Eles discutem o uso de aprendizado de máquina em finanças e a eficácia de vários algoritmos, como redes de memória curta e longa e BERT, que eles sugerem ser atualmente o estado da arte em pesquisas publicadas. Os palestrantes também discutem o potencial do uso de aprendizado de máquina para investimentos transversais e sugerem o uso de fatores ou retornos para ajudar a máquina a entender retornos ou fatores planos.

  • 01:15:00 Nesta seção, Noguer e Alonso discutem a dificuldade em encontrar valores ótimos em deep learning e como isso pode ser um problema NP, exigindo habilidade e intuição de um cientista de dados humano para fazer escolhas heurísticas baseadas em experiência e intuição . Eles destacam os desafios de entender e interpretar redes profundas, pois até os matemáticos lutam para criar equações para entender por que funcionam tão bem e, em vez disso, devem recorrer à análise qualitativa. Apesar desses desafios, depois de trabalhar com vários conjuntos de dados, os cientistas de dados podem desenvolver uma intuição sobre os melhores parâmetros a serem usados em uma determinada situação.
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
Miquel Noguer i Alonso: "Latest Development in Deep Learning in Finance"
  • 2020.03.19
  • www.youtube.com
Title of Seminar: "Latest Developments in Deep Learning in Finance"Date of Seminar: 9/24/19Speaker Bio: Miquel Noguer i Alonso (Artificial Intelligence Finan...
 

Gordon Ritter: "Aprendizado por Reforço e a Descoberta de Oportunidades de Arbitragem"



Gordon Ritter: "Aprendizado por Reforço e a Descoberta de Oportunidades de Arbitragem"

Neste vídeo, Gordon Ritter explora a aplicação do aprendizado por reforço no contexto dos mercados financeiros, focando especificamente na descoberta de oportunidades de arbitragem na negociação de derivativos. Ele enfatiza a importância do planejamento e da estratégia multiperíodos complexos quando confrontados com a incerteza. Ritter demonstra o uso de funções de valor para guiar a busca por políticas ótimas e propõe uma função de recompensa que combina incremento de período único com uma constante multiplicada pelo quadrado do desvio da média.

Ritter discute o processo de criação de uma simulação que inclui uma oportunidade de arbitragem sem instruir explicitamente a máquina onde encontrá-la. Ele destaca o uso de simulações estocásticas para modelar mercados financeiros e sugere que, com dados suficientes, um agente treinado por meio de aprendizado por reforço pode identificar a arbitragem do mercado. No entanto, ele reconhece as limitações do aprendizado por reforço, como overfitting e os desafios em lidar com cenários imprevistos. Testes adicionais, como explorar estratégias de negociação de neutralidade gama, são propostos para expandir as capacidades de agentes treinados.

O vídeo inclui uma análise do desempenho de um agente de aprendizado por reforço em comparação com um agente de linha de base em hedge de derivativos. O agente treinado demonstra uma economia significativa de custos, mantendo uma faixa semelhante de volatilidade realizada, mostrando sua capacidade de fazer compensações entre custo e risco. Ritter discute a relevância das funções de valor no aprendizado por reforço para negociação de derivativos, já que os próprios preços de derivativos podem ser vistos como uma forma de função de valor.

Ritter também destaca a importância de construir vetores de estado apropriados e espaços de ação no aprendizado por reforço. Incluir informações relevantes no vetor de estado e definir ações adequadas são essenciais para uma tomada de decisão eficaz. Ele apresenta o uso dos processos de Ornstein e Límbico como um meio de modelar a dinâmica de reversão à média, que pode potencialmente levar a oportunidades de arbitragem.

Além disso, o vídeo discute os desafios de usar retornos de curto prazo para oportunidades de negociação e as limitações de espaços de estado finitos. Ritter sugere empregar espaços de estado contínuos e métodos de aproximação de função, como árvores modelo e redes neurais, para enfrentar esses desafios e melhorar a estimativa de funções de valor.

Por fim, Ritter reconhece que, embora o aprendizado por reforço possa ser uma ferramenta valiosa na descoberta de oportunidades de arbitragem, não é uma abordagem garantida nas negociações da vida real. Ele conclui destacando o potencial do aprendizado por reforço para descobrir negociações lucrativas por meio de sistemas estocásticos, mas adverte contra esperar que ele encontre oportunidades de arbitragem se elas não existirem no mercado. As limitações do aprendizado por reforço, incluindo overfitting e sua incapacidade de lidar com cenários imprevistos, também são reconhecidas.

  • 00:00:00 Nesta seção, Gordon Ritter fala sobre aprender através da experiência para otimizar as recompensas ao longo do tempo em um ambiente incerto. Ele fornece exemplos de como os robôs podem navegar por uma sala e como as gazelas aprendem a andar enviando sinais para os músculos das pernas. Ele também menciona que o melhor jogador de Go do mundo agora é um agente treinado por métodos de aprendizado por reforço, que é o foco de sua palestra. Ritter enfatiza a importância do planejamento e estratégia multiperíodos complexos na presença de incerteza, e como o aprendizado por reforço pode ser aplicado em finanças para descobrir oportunidades de arbitragem.

  • 00:05:00 Gordon Ritter explica o conceito de aprendizado por reforço, que é o processo de um agente interagir com o ambiente e agir para otimizar um sinal de recompensa. O agente observa o estado do ambiente e determina se suas ações resultaram em uma recompensa positiva ou negativa. O aprendizado por reforço envolve o uso de funções de valor para estruturar a busca por políticas ótimas para maximizar a expectativa de recompensa a longo prazo. Ritter observa que a ideia de funções de valor é familiar para aqueles com experiência em finanças matemáticas.

  • 00:10:00 Nesta seção do vídeo, Gordon Ritter discute o conceito de aprendizado por reforço, especificamente a equação de Hamilton-Jacobi Bellman, que é usada para encontrar a função de valor de uma política ótima. No entanto, ele observa que, em cenários do mundo real, às vezes não é viável resolver explicitamente a equação. Ritter então introduz a função de valor de ação, que é usada para encontrar o ganho esperado de longo prazo de tomar uma determinada ação em um determinado estado e seguir uma política a partir de então. O objetivo do aprendizado por reforço é encontrar a política ótima encontrando a função de valor de ação ou sugestão que corresponde a ela. Ritter então questiona se a inteligência artificial pode descobrir uma estratégia de negociação dinâmica ideal em um cenário realista, levando em consideração os custos de negociação, como spread de oferta e comissões. Ele sugere que se houvesse uma arbitragem no mercado, um agente produzido por aprendizado por reforço seria capaz de encontrá-la com dados suficientes.

  • 00:15:00 Gordon Ritter discute o uso de aprendizado por reforço para descobrir oportunidades de arbitragem nos mercados financeiros. Ritter argumenta que, ao contrário dos métodos tradicionais que dependem de preços livres de arbitragem consistentes, o aprendizado por reforço pode ser usado para descobrir se há alguma oportunidade de arbitragem em um determinado sistema dinâmico. Essa abordagem pode ser usada para treinar o algoritmo para encontrar estratégias com altos índices de Sharpe, que podem ser usados para identificar arbitragem estatística, que não é uma arbitragem pura, mas uma boa estratégia de negociação. Ritter afirma que tal abordagem é semelhante ao AlphaGo Zero, que aprendeu a jogar Go sem orientação humana e venceu campeões humanos.

  • 00:20:00 Gordon Ritter explica as suposições usadas ao maximizar a utilidade esperada da riqueza e como isso é matematicamente equivalente a maximizar a forma quadrática da variância média. Ele esclarece que uma função quadrática não pode ser uma função de utilidade e explica o sinal de recompensa que ele usa para treinar agentes racionais para agir como investidores von Neumann Morgenstern. Ele sugere combinar o incremento em um único período menos uma constante vezes o quadrado de ao redor da média para a função de recompensa e orienta na escolha do que colocar no estado, enfatizando a importância de incluir informações relevantes que ajudem o agente a tomar boas decisões.

  • 00:25:00 Gordon Ritter discute como construir um vetor de estado e um espaço de ação no aprendizado por reforço. Ele explica que para um agente aprender a usar um sinal para tomar uma decisão de negociação, esse sinal deve estar incluído no vetor de estado. Além disso, o espaço de ação deve incluir a escolha de qual estratégia de execução usar, a escolha de um parâmetro em um algoritmo para alterar seu comportamento ou a decisão de cruzar o spread ou entrar em uma fila no lado próximo do livro de ofertas. Ritter também fornece um exemplo de como os processos de Ornstein e Limbic podem ser usados em finanças para modelar a dinâmica de reversão à média, o que pode levar a uma oportunidade de arbitragem.

  • 00:30:00 Nesta seção, Gordon Ritter discute a construção de uma simulação estocástica que tenha pelo menos uma arbitragem aproximada como uma arbitragem estatística, mesmo que não seja um lucro garantido. Ele enfatiza que o agente tem que dar conta de tudo jogando e perdendo algumas vezes. A simulação tem um custo de spread e um custo de impacto baseado em uma função de impacto de preço linear e, às vezes, ele gosta de brincar com um multiplicador na frente do custo total. Ele diz que o vetor de estado pode ser bastante simples, e o estado contém apenas o que o agente detém e o preço, que contém o sinal. Por fim, ele observa que esta é apenas uma prova de conceito, pois não é garantido que funcione na negociação da vida real.

  • 00:35:00 Gordon Ritter discute o processo de criação de uma simulação que tem uma oportunidade de arbitragem sem dizer explicitamente à máquina onde procurá-la. Ele explica que funciona aprendendo uma função de valor e por um método clássico chamado Q-learning. No entanto, ele admite que não gosta particularmente do modelo para a função Q porque tem que aprender cada elemento da matriz independentemente sem continuidade. Ritter também apresenta um gráfico da função valor em função do preço para várias ações, mostrando o surgimento de uma zona sem comércio em torno do preço de equilíbrio.

  • 00:40:00 Nesta seção, Gordon Ritter discute as limitações do uso de retornos de curto prazo para oportunidades de negociação e os desafios que surgem ao usar um espaço de estado finito. Ele sugere o uso de espaços de estado contínuos e métodos de aproximação de função, como árvores modelo, para estimar a função Q de valor de Bellman e encontrar a melhor função desconhecida que se ajusta aos dados de treinamento. Este método permite uma maneira mais eficiente e eficaz de aproximar a função de valor e encontrar oportunidades de negociação.

  • 00:45:00 Gordon Ritter discute o uso de técnicas estatísticas de aprendizado de máquina, como aproximadores de função, para treinar agentes de aprendizado por reforço para aproximar recompensas na forma de recompensas de longo e curto prazo. Usando um aproximador de função melhor, como uma rede neural, a função de valor de Bellmen pode ser aproximada com mais precisão e uma função contínua obtida, permitindo uma melhor compreensão das ações ótimas. Ritter então aplica essas técnicas ao exemplo de hedge de derivativos, onde os bancos gostariam de neutralizar os riscos nas posições sem despejar os derivativos no mercado. O objetivo é utilizar agentes de aprendizado por reforço que possam negociar de forma otimizada uma cesta de derivativos com base em estratégias de replicação dinâmica, permitindo cobertura automática e reduzindo custos de impactos de mercado.

  • 00:50:00 Nesta seção, Gordon Ritter discute as variáveis de estado que devem existir, minimamente, em um mercado de opções europeu para permitir uma estratégia de portfólio de replicação dinâmica. Ele afirma que as variáveis de estado que entrariam no cálculo do delta em um mundo do tipo Black-Scholes são o preço subjacente e o tempo até o vencimento, sendo o preço de exercício da opção parte da definição do que é a opção. Além disso, ele menciona que o estado não precisa conter a opção Greeks, e espera-se que o agente aprenda essas funções não lineares por conta própria. Ele conclui dizendo que a máquina só pode aprender por experiência onde gerar uma grande experiência definida por simulação.

  • 00:55:00 Gordon Ritter discute a saída de seu agente de aprendizado por reforço que troca custo por vol e o compara a um agente de linha de base que usa cobertura Delta. O agente treinado mostra um rastreamento de posição mais suave do hedge Delta, enquanto o agente da linha de base mostra negociação excessiva e custos mais altos devido ao hedge Delta. O agente treinado aprendeu a fazer uma troca entre custo e risco, e Ritter observa que é aceitável aceitar alguma volatilidade para uma grande economia de custos. Embora o mercado tenha sido simulado com altos custos de negociação, o agente treinado ainda teve um desempenho melhor do que o agente da linha de base.

  • 01:00:00 Nesta seção, o palestrante apresenta histogramas de simulações para comparar o desempenho do agente Delta e o método de aprendizado por reforço. O agente Delta mostra vol. realizado altamente previsível, mas o agente treinado mostra economias de custos significativas enquanto mantém uma faixa similar de vol. realizado. O palestrante sugere mais testes, como olhar para as estratégias de negociação que atingem a neutralidade gama, o que poderia ser descoberto pelo agente. O palestrante conclui que o uso de métodos baseados em função de valor, como visto no aprendizado por reforço, se intersectam bem com o campo de negociação de derivativos, já que os próprios preços de derivativos são uma forma de função de valor.

  • 01:05:00 Gordon Ritter explica que o aprendizado por reforço pode ser usado para descobrir oportunidades de arbitragem treinando um sistema estocástico que pode encontrar negociações lucrativas. Porém, se o sistema não conseguir encontrar nenhuma oportunidade após milhões ou bilhões de simulações, isso pode indicar que o mercado não admite arbitragem. Ele também discute as limitações do aprendizado por reforço, incluindo overfitting e a incapacidade de lidar com negociações infinitas e cenários imprevistos, como flash crashes.
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
Gordon Ritter: "Reinforcement Learning and the Discovery of Arbitrage Opportunities"
  • 2019.05.30
  • www.youtube.com
Seminar Date: March 20, 2019Info: Reinforcement learning is a way of training a machine to find an optimal policy for a stochastic optimal control system, ...
 

Marcos Lopez de Prado: "As 7 razões pelas quais a maioria dos fundos de aprendizado de máquina falha"



Marcos Lopez de Prado: "As 7 razões pelas quais a maioria dos fundos de aprendizado de máquina falha"

Marcos Lopez de Prado fez uma apresentação abrangente descrevendo as razões por trás do fracasso da maioria dos fundos de aprendizado de máquina no setor financeiro. Ele enfatizou a importância de vários fatores-chave que contribuem para o sucesso neste domínio.

Um dos principais fatores destacados por Prado foi a ausência de uma teoria bem formulada em fundos discricionários. Ele observou que muitas conversas sobre investimentos carecem de uma abordagem construtiva e abstrata devido à falta de uma base teórica sólida. Sem uma teoria para orientar a tomada de decisões, os fundos discricionários lutam para interagir com os outros e testar suas ideias, resultando em escolhas ruins e possíveis perdas.

De Prado também discutiu os efeitos prejudiciais de trabalhar em silos isolados dentro de fundos de aprendizado de máquina. Ele enfatizou que a colaboração e a comunicação são essenciais para o sucesso, alertando contra a contratação de vários PhDs e segregando-os em tarefas separadas. Em vez disso, ele defendeu uma abordagem baseada em equipe, na qual os especialistas trabalham de forma independente, mas possuem conhecimento da experiência uns dos outros, levando a melhores estratégias e resultados.

A especialização dentro da equipe foi outro aspecto fundamental destacado por Prado. Ele enfatizou a importância de reunir um grupo de especialistas capazes de lidar com sistemas e tarefas complexas. Esses especialistas devem possuir habilidades independentes enquanto compreendem a estratégia geral e estão cientes das áreas de especialização de seus colegas. Esse paradigma de metaestratégia é valioso não apenas para desenvolver estratégias eficazes, mas também para tomar decisões informadas em situações incertas, incluindo contratação, supervisão de investimentos e definição de critérios de parada.

O tratamento adequado dos dados financeiros foi outro fator importante discutido por Prado. Ele enfatizou a necessidade de obter estacionariedade nos dados, preservando informações valiosas. Ele sugeriu diferenciar dados por fração para reter informações de memória de observações anteriores, permitindo previsões críticas em pontos específicos. Além disso, ele aconselhou o uso de um limite específico para obter uma correlação quase perfeita entre as séries estacionária e original sem usar memória excessiva. De Prado alertou contra o uso de retornos nos casos em que não há contratos futuros líquidos, recomendando o uso de uma única observação na maioria dos cenários.

A frequência de amostragem e a rotulagem adequada dos dados também foram abordadas por de Prado. Ele propôs basear a frequência de amostragem na chegada de informações de mercado, em vez de confiar em métodos convencionais, como observações diárias ou minuciosas. Usando técnicas como barras de dólar que amostram com base no volume de transações, pode-se garantir que quantidades iguais de informações sejam incluídas na amostra. A rotulagem adequada das observações, como o uso do método Touch Barrier Labeling, permite o desenvolvimento de estratégias de risco, levando em consideração a dinâmica dos preços e a possibilidade de ser interrompido.

O conceito de meta-aprendizagem, em que um modelo de aprendizado de máquina prevê a precisão das previsões de outro modelo, foi discutido como um meio de obter precisão e recuperação. Ao compor dois modelos separados, pode-se equilibrar a compensação entre precisão e recall usando a média harmônica. De Prado recomendou o emprego de diferentes algoritmos de aprendizado de máquina para tarefas distintas para otimizar o desempenho.

De Prado destacou os desafios de aplicar o aprendizado de máquina em finanças, enfatizando a necessidade de especialistas humanos filtrarem dados antes de usar algoritmos de aprendizado de máquina. Os dados financeiros são inerentemente confusos e não iid, dificultando a vinculação de observações específicas aos ativos. Além disso, as constantes mudanças nos mercados financeiros devido a regulamentações e leis exigem uma abordagem cuidadosa e diferenciada para a implementação de algoritmos de aprendizado de máquina. Simplesmente conectar dados financeiros a um modelo de aprendizado de máquina não é suficiente para obter sucesso nas finanças.

Abordar as questões de não unicidade e overfitting foi outro aspecto significativo da apresentação de Prado. Ele propôs uma metodologia para determinar a singularidade das observações, recomendando a remoção de observações que contenham informações mais antigas do que as compartilhadas com o conjunto de teste, um processo conhecido como "limpeza". Isso ajuda a criar modelos de aprendizado de máquina mais precisos, alinhando-se com as suposições das técnicas de validação cruzada. De Prado também alertou contra os perigos do overfitting, enfatizando que repetidamente as estratégias de back-testing podem levar a falsos positivos e diminuir a utilidade ao longo do tempo. Considerar o número de tentativas envolvidas na descoberta de estratégias é crucial para evitar overfitting e falsos positivos. De Prado aconselhou estabelecer um limite alto para o desempenho de estratégias para mitigar os riscos associados ao overfitting.

O conceito de "morango deflacionado" foi introduzido por de Prado, ilustrando que muitos fundos de hedge exibem assimetria negativa e excesso de curtose positivo, mesmo que os gestores de fundos não tenham intencionalmente visado essas características. Isso ocorre principalmente porque os gestores de fundos são avaliados com base no índice de Sharpe, e essas propriedades estatísticas podem inflar o índice. De Prado enfatizou a importância de considerar o tamanho da amostra e o número de tentativas envolvidas na produção de uma descoberta ao analisar os retornos. Ele alertou contra o investimento em estratégias com baixa probabilidade de atingir um verdadeiro índice de Sharpe maior que zero.

Alcançar um equilíbrio entre o ajuste do modelo e o overfitting foi enfatizado por de Prado. Ele desaconselhou a busca por um ajuste perfeito, pois isso pode levar ao excesso de confiança e ao aumento do risco. Em vez disso, ele recomendou encontrar uma maneira de preservar memórias importantes enquanto aplica efetivamente modelos estatísticos. De Prado também alertou contra o uso de modelos excessivamente complicados, pois eles podem impedir a alimentação de dados e a polinização cruzada, impedindo a eficácia geral dos algoritmos de aprendizado de máquina.

De Prado abordou o fenômeno da indústria em que certas características ou métricas se tornam preferidas, levando a uma convergência de estratégias. Comparando-o com a criação de cães, onde a preferência humana e a estética moldam certas características, ele explicou como o uso de métricas específicas, como a combinação de índice de Sharpe e assimetria negativa, tornou-se favorecido em fundos de hedge, mesmo que não fosse inicialmente visadas. Abordar esse fenômeno se mostra desafiador, pois ocorre sem nenhum evento desencadeador específico.

Além disso, de Prado enfatizou a importância de usar dados de preços recentes nas previsões, pois têm maior relevância para o futuro imediato. Ele recomendou empregar decaimento de peso exponencial para determinar o comprimento da amostra ao usar todos os dados disponíveis. Além disso, ele destacou a importância de controlar o número de testes e evitar ambientes de trabalho isolados como armadilhas comuns que levam ao fracasso dos fundos de aprendizado de máquina. Ele observou que as finanças diferem de outros campos em que o aprendizado de máquina fez avanços significativos, e a contratação de estatísticos nem sempre pode ser a abordagem mais eficaz para o desenvolvimento de algoritmos de negociação bem-sucedidos.

Em resumo, a apresentação de Marcos Lopez de Prado esclareceu os motivos pelos quais a maioria dos fundos de aprendizado de máquina falha no setor financeiro. Ele enfatizou a necessidade de uma teoria bem formulada, colaboração em equipe, especialização, tratamento adequado e diferenciação de dados financeiros, amostragem e rotulagem apropriadas, abordando desafios como não exclusividade e overfitting e incorporando experiência humana na implementação de algoritmos de aprendizado de máquina. Ao compreender esses fatores e adotar uma abordagem cuidadosa e diferenciada, os profissionais podem aumentar a probabilidade de sucesso no mundo dinâmico e complexo das finanças.

  • 00:00:00 Marcos Lopez de Prado discute como a falta de uma teoria bem formulada em fundos discricionários impede que as pessoas tenham uma conversa verdadeiramente construtiva e abstrata sobre investimentos. Ao participar de conferências de investimento, ele considera a maioria das conversas anedóticas, sem nenhuma teoria real sendo discutida. Como resultado, os fundos discricionários podem sofrer de incapacidade de interagir com outros e testar teorias. Essa falta de uma teoria bem formulada pode levar a uma tomada de decisão ruim e, eventualmente, resultar em perda de negócios.

  • 00:05:00 Nesta seção, Marcos Lopez de Prado discute por que a maioria dos fundos de aprendizado de máquina falha, citando a questão do trabalho em silos como um fator importante. Ele explica que é impossível contratar 50 doutores e colocá-los para trabalhar juntos em silos, cada um trabalhando repetidamente nas mesmas tarefas, sem nenhuma colaboração ou comunicação. Isso geralmente leva à tentativa de várias estratégias, resultando em descobertas incorretas, implementações malsucedidas e, eventualmente, o fechamento do fundo. Lopez de Prado afirma que o desenvolvimento de estratégias requer um esforço de equipe, e muitas estratégias são necessárias para alcançar o sucesso.

  • 00:10:00 Marcos Lopez de Prado destaca a importância da especialização dentro de um grupo como fator chave para o sucesso na implementação de aprendizado de máquina em finanças. Ele argumenta que formar uma equipe de especialistas é essencial para construir uma infraestrutura de alto desempenho capaz de lidar com sistemas complexos, como processos industriais ou estratégias de aprendizado de máquina. Os especialistas individuais devem ser capazes de trabalhar de forma independente, mas, ainda assim, conhecer todo o plano de jogo e estar cientes dos campos de especialização de cada um e das questões e questões relevantes para eles. Esse paradigma de metaestratégia não é útil apenas para desenvolver estratégias, mas também para tomar decisões sob incerteza, incluindo contratações, supervisão de investimentos e critérios de parada para estratégias.

  • 00:15:00 Nesta seção, Marcos Lopez de Prado enfatiza a importância de lidar adequadamente com os dados financeiros para alcançar a estacionaridade, preservando as informações mais valiosas. A diferenciação de dados tem um custo, pois apaga informações valiosas do sinal, tornando impossível prever qualquer coisa. Portanto, ele sugere diferenciar dados por fração para preservar algumas informações de memória sobre observações anteriores que permitem discernir se uma série está em um ponto crítico para fazer uma previsão. Uma combinação de dados diferenciados e estacionários fornece informações úteis para a análise clássica.

  • 00:20:00 O palestrante discute a criação de séries estacionárias e como alcançá-las. Usando um limite específico, é possível obter uma série estacionária quase perfeitamente correlacionada com a série original, sem usar muita memória. Se a correlação com a série original for virtualmente zero, atingir a estacionaridade é inútil. Além disso, o palestrante observa que não há casos futuros líquidos em que se justifique o uso de retornos, e desaconselha o uso mesmo em dados diários. Ele sugere que usar uma única observação seria suficiente na maioria dos casos.

  • 00:25:00 O palestrante discute a importância da frequência de amostragem e sugere que ela seja baseada na quantidade de informações que chegam ao mercado, ao invés de métodos canônicos como observações diárias ou de um minuto. Ele dá um exemplo de uso de barras de dólar, cuja amostra é baseada na quantidade de transações, para garantir que a amostra inclua quantidades iguais de informações, em vez de apenas quantidades iguais de tempo ou preço. O palestrante também enfatiza a importância de levar em consideração os preços na amostragem, pois fornece informações críticas que afetam a atividade do mercado.

  • 00:30:00 Marcos Lopez de Prado discute a importância da amostragem e rotulagem correta dos dados em finanças. Ele explica que é fundamental colher mais amostras quando chegam muitas informações ao mercado porque elas contêm mais informações. Ele sugere usar o método Touch Barrier Labeling para rotular as observações corretamente, levando em consideração o que acontece com o preço e como ele alcançou esse resultado específico. Ao fazer isso, permite desenvolver uma estratégia que leva em consideração os níveis de risco, o que é importante porque a maioria das pessoas precisa seguir os níveis de risco e considerar a possibilidade de ser impedida.

  • 00:35:00 Marcos López de Prado discute o conceito de meta-learning, onde um modelo de aprendizado de máquina é usado para prever se a previsão de outro modelo de aprendizado de máquina está correta. Ele explica a importância de compor as duas decisões em dois modelos diferentes e como isso é útil para obter precisão e recuperação em algoritmos de aprendizado de máquina. López de Prado também apresenta o conceito de média harmônica, que é usado para equilibrar a troca entre precisão e recall, e sugere o uso de diferentes algoritmos de aprendizado de máquina para cuidar de duas tarefas muito diferentes.

  • 00:40:00 Nesta seção, Marcos Lopez de Prado explica os desafios de usar aprendizado de máquina em finanças. Ele enfatiza a importância de ter especialistas humanos filtrando os dados antes de usar algoritmos de aprendizado de máquina, pois os dados financeiros são confusos e não iid, o que significa que não é fácil vincular uma observação específica a um paciente específico ou, neste caso, a um ativo específico. . Além disso, os mercados financeiros mudam constantemente devido a novos regulamentos e leis, que podem afetar significativamente o desempenho de um modelo de aprendizado de máquina. Portanto, o uso de aprendizado de máquina em finanças requer uma abordagem cuidadosa e diferenciada e não pode ser implementado simplesmente conectando dados financeiros a um algoritmo de aprendizado de máquina.

  • 00:45:00 Marcos Lopez de Prado discute a questão da não unicidade das observações e propõe uma metodologia para tratá-la. Ele sugere identificar a quantidade de sobreposição em cada observação e determinar sua singularidade para derivar uma solução. Como as técnicas de validação cruzada assumem que as observações são independentes e identicamente distribuídas, ele também recomenda identificar quais observações devem ser removidas do conjunto de treinamento para evitar a suposição de IID. Esse processo, chamado de "limpeza", remove as observações que contêm informações mais antigas do que as compartilhadas com o conjunto de teste, resultando em modelos de aprendizado de máquina mais precisos em finanças.

  • 00:50:00 Nesta seção, Marcos Lopez de Prado discute a sétima razão pela qual a maioria dos fundos de aprendizado de máquina falha, que é o overfitting. Ele explica que mesmo que o índice de Sharpe de uma estratégia seja zero, ao testar repetidamente a estratégia, pode-se eventualmente encontrar uma estratégia incrível no papel. No entanto, o back-testing repetido pode levar a falsos positivos e torna-se menos útil ao longo do tempo. Para evitar overfitting e falsos positivos, é preciso ser inteligente e praticar levando em consideração o número de tentativas envolvidas em sua descoberta. Quanto mais você pratica, mais alto o limite que você deve exigir para a prática.

  • 00:55:00 Marcos Lopez de Prado explica o conceito de morango deflacionado, que é a ideia de que a maioria dos fundos de hedge tem assimetria negativa e curtose excessiva positiva, apesar dos gestores de fundos não visarem intencionalmente esses momentos. Isso ocorre porque os gestores de fundos são avaliados com base no índice de Sharpe e, estatisticamente, a assimetria negativa e a curtose excessiva positiva podem inflar esse índice. De Prado destaca a importância de considerar o tamanho da amostra e o número de tentativas envolvidas na produção de uma descoberta ao analisar os retornos e adverte contra o investimento em uma estratégia com baixa probabilidade de ter um verdadeiro índice de Sharpe maior que zero.

  • 01:00:00 Marcos Lopez de Prado enfatiza a importância de equilibrar o tradeoff entre ajustar seu modelo aos dados e evitar o overfitting. Ele sugere não se concentrar muito em alcançar um ajuste perfeito, pois isso pode levar ao excesso de confiança e ao aumento do risco. Em vez disso, ele recomenda encontrar uma maneira de preservar as memórias e, ao mesmo tempo, poder comprar e aplicar modelos estatísticos de maneira eficaz. Lopez de Prado também observa que o uso de modelos muito complicados pode dificultar a polinização cruzada e a alimentação de dados.

  • 01:05:00 Marcos Lopez de Prado explica como certas características ou métricas podem se tornar as preferidas em fundos de aprendizado de máquina e hedge funds, levando a uma convergência no setor. Usando o exemplo de cães reprodutores, onde certas características são preferidas por causa da preferência humana e estética, ele compara esse fenômeno ao uso do comércio de índice de Sharpe e assimetria negativa, que se tornou a combinação preferida para fundos de hedge, embora não tenha sido inicialmente visadas. Ele observa que abordar esse fenômeno é desafiador, pois acontece sem que um evento específico ocorra.

  • 01:10:00 Nesta seção, Marcos López de Prado discute a importância de usar dados de preços recentes ao fazer previsões, pois são mais relevantes para o futuro imediato. Ele sugere usar todos os dados disponíveis com um decaimento exponencial na ponderação para decidir o tamanho da amostra. López de Prado também enfatiza a necessidade de controlar o número de tentativas e evitar trabalhar em silos, pois esses são motivos comuns pelos quais os fundos de aprendizado de máquina falham. Além disso, ele destaca que finanças é diferente de outros campos em que o aprendizado de máquina fez avanços significativos, e a contratação de estatísticos nem sempre é a melhor abordagem para desenvolver um algoritmo de negociação bem-sucedido.
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
Marcos Lopez de Prado: "The 7 Reasons Most Machine Learning Funds Fail"
  • 2019.05.13
  • www.youtube.com
Seminar Date: September 5, 2017For more information, please visit Marcos Lopez de Prado's website: http://www.quantresearch.org/Summary: In this popular thro...
 

Irene Aldridge: "Risco em tempo real na otimização de portfólio de longo prazo"



Irene Aldridge: "Risco em tempo real na otimização de portfólio de longo prazo"

Irene Aldridge, presidente e diretora executiva da Able Alpha Trading, oferece uma discussão abrangente sobre o impacto da negociação de alta frequência (HFT) em gerentes de portfólio de longo prazo e as mudanças sistêmicas no mercado que afetam todo o setor. Ela explora a crescente automação em finanças, impulsionada pelos avanços em big data e aprendizado de máquina, e suas implicações para a otimização de portfólio. Além disso, Aldridge investiga os desafios e oportunidades apresentados pelos dados de volume intradiário e propõe uma abordagem passo a passo que integra a identificação de riscos em tempo real usando big data. Ela defende uma estratégia de otimização de portfólio com mais nuances que incorpore fatores microestruturais e sugere o uso de fatores como medida defensiva. Aldridge também aborda o ciclo de vida de três anos de estratégias quantitativas, o potencial da realidade virtual e automação na análise de dados e a aplicação de uma matriz de computador na otimização de portfólio.

Ao longo de sua apresentação, Aldridge desafia o equívoco de que as negociações de alta frequência não têm impacto sobre os gerentes de portfólio de longo prazo. Ela argumenta que mudanças sistêmicas no mercado afetam todas as estratégias de investimento, independentemente de seu horizonte de tempo. Com base em sua experiência em engenharia elétrica, desenvolvimento de software, gerenciamento de riscos e finanças, Aldridge enfatiza a importância de explorar novas áreas, como avaliação de riscos em tempo real e otimização de portfólio.

Aldridge destaca a mudança significativa em direção à automação no setor financeiro, observando que a negociação manual deu lugar a sistemas automatizados em ações, câmbio, renda fixa e negociação de commodities. Para permanecerem relevantes, os participantes do setor adotaram técnicas de big data e aprendizado de máquina. No entanto, ela reconhece a resistência inicial de alguns comerciantes que temiam que a automação tornasse obsoleta sua experiência.

O palestrante explora a evolução do big data e seu papel na otimização do portfólio. Ela aponta que a disponibilidade de grandes quantidades de dados estruturados e não estruturados revolucionou o cenário financeiro. Aldridge explica como técnicas como decomposição de valor singular (SVD) permitem o processamento de grandes conjuntos de dados para extrair informações valiosas. O SVD é cada vez mais usado para automatizar a alocação de portfólio, com o objetivo de incorporar o máximo de dados possível para informar as decisões de investimento.

Aldridge investiga o processo de redução de dimensões de dados usando decomposição de valor singular. Ao plotar valores singulares derivados desse processo, os pesquisadores podem identificar os vetores que contêm informações significativas enquanto tratam os vetores restantes como ruído. Essa técnica pode ser aplicada a vários conjuntos de dados financeiros, incluindo capitalização de mercado, beta, preço e volatilidade intradiária. O conjunto de dados reduzido resultante fornece orientação confiável para fins de pesquisa e auxilia na identificação de fatores cruciais para otimização de portfólio de longo prazo.

O palestrante discute os fatores comuns empregados pelos analistas de portfólio, como preço, risco de mercado (beta), capitalização de mercado e rendimento de dividendos. A atividade institucional também é um fator importante, e Aldridge destaca o uso de big data para analisar dados de ticks e detectar padrões. O reconhecimento da atividade institucional fornece sinais visíveis aos participantes do mercado, levando ao aumento do volume e à execução favorável.

Aldridge distingue entre estratégias HFT agressivas e passivas e seu impacto na liquidez. Estratégias agressivas de HFT, caracterizadas por cancelamentos de pedidos, podem corroer a liquidez e contribuir para o risco, enquanto estratégias passivas de HFT, como criação de mercado, podem reduzir a volatilidade ao fornecer liquidez. Ela observa que a preferência pelo preço médio ponderado por volume por parte dos investidores institucionais e o uso de preços médios ponderados pelo tempo em determinados mercados, como câmbio, onde as informações de volume nem sempre estão disponíveis.

O palestrante aborda os desafios impostos pelo volume de dados intradiário, dada a multiplicidade de trocas, intervalos de tempo reduzidos e a necessidade de determinar o melhor negócio e a melhor oferta entre várias trocas. Apesar desses desafios, Aldridge vê oportunidades significativas para inovação e pesquisas adicionais no corte e análise de dados de volume intradiário. Ela menciona o Processador de Informações de Segurança (SIP) executado pela SEC, que agrega ordens de limite de várias bolsas, mas reconhece o desafio contínuo de reconciliar e resolver problemas em diferentes bolsas.

Aldridge destaca os fatores microestruturais inexplorados e os riscos na otimização do portfólio. Embora os gerentes de portfólio de longo prazo tradicionalmente se concentrem nas características de risco-retorno e ignorem os fatores microestruturais, Aldridge sugere incorporá-los como entradas e alavancar a riqueza de dados disponíveis. Ela propõe uma abordagem passo a passo que envolve o uso de decomposição de valor singular para prever o desempenho com base em retornos anteriores e a utilização de big data para identificar e lidar com riscos em tempo real. Algoritmos podem ajudar a identificar e alavancar complexidades complexas em trocas, como ordens de ping, que podem passar despercebidas por operadores humanos.

Ao desafiar as limitações da otimização de portfólio tradicional, Aldridge apresenta uma abordagem mais abrangente que integra fatores microestruturais e outras dinâmicas de mercado. Ela destaca o potencial disruptivo de fatores como ETFs e flash crashes e enfatiza que as matrizes de correlação sozinhas podem não ser suficientes para analisar o risco. Ao considerar fatores microestruturais independentes que vão além dos movimentos mais amplos do mercado, Aldridge defende uma estratégia diferenciada de otimização de portfólio que pode aumentar os retornos e melhorar os índices de Sharpe. Mais detalhes sobre sua abordagem podem ser encontrados em seu livro, e ela recebe perguntas do público sobre negociação de alta frequência.

Aldridge investiga ainda mais a persistência da negociação de alta frequência em um dia e suas implicações para a alocação de portfólio de longo prazo. Ela ilustra isso com o exemplo do volume de negociação intradia de alta frequência do Google, que exibe estabilidade dentro de um determinado intervalo ao longo do tempo. Aldridge destaca os custos mais baixos associados à negociação de alta frequência em ações com preços mais altos e a menor porcentagem de volume de negociação de alta frequência em penny stocks. Além disso, ela observa que a complexidade da codificação muitas vezes impede os operadores de alta frequência de se envolverem com ações com altos dividendos. Estratégias agressivas de negociação de alta frequência envolvem ordens de mercado ou ordens de limite agressivas colocadas perto do preço de mercado.

O palestrante explica o ciclo de vida de três anos de uma estratégia quantitativa, esclarecendo os desafios enfrentados pelos quants na produção de estratégias bem-sucedidas. O primeiro ano normalmente envolve trazer uma estratégia bem-sucedida de um emprego anterior e ganhar um bom bônus. O segundo ano é marcado por tentativas de inovar, mas muitos lutam para desenvolver uma estratégia de sucesso durante esse período. No terceiro ano, aqueles que encontraram uma estratégia bem-sucedida podem ganhar um bom bônus, enquanto outros podem optar por sair e levar sua estratégia anterior para uma nova empresa. Isso contribui para uma concentração de estratégias de negociação de alta frequência semelhantes, que podem ser ajustadas ou levemente modificadas e geralmente executam negociações ao mesmo tempo. Aldridge enfatiza que a negociação de alta frequência, como outras formas de automação, é benéfica e não deve ser descartada.

Aldridge conclui sua apresentação discutindo o potencial da realidade virtual e automação na análise de dados. Ela aborda a utilidade de portfólios e fatores baseados em beta, usando o exemplo de comprar um par de meias versus comprar um computador Dell e como as mudanças no beta afetam seus preços de maneira diferente. Também é destacada a importância de normalizar as devoluções e abordar a aleatoriedade nos dias úteis. Aldridge sugere o emprego de fatores como forma de defesa e enfatiza que o uso de fatores pode ser uma abordagem agradável.

Em uma seção, Aldridge explica a aplicação de uma matriz de computador para determinar a importância ou o coeficiente de cada ação em um portfólio. A matriz incorpora covariância de variância e técnicas de encolhimento para ajustar os retornos e obter um resultado mais preciso. Ao identificar padrões nos retornos dos dias anteriores, a matriz pode prever resultados futuros e otimizar o portfólio. Embora o modelo de brinquedo discutido represente um exemplo básico, ele exemplifica o potencial de usar uma matriz de computador para otimização de portfólio de longo prazo.

Em resumo, a apresentação de Irene Aldridge fornece informações valiosas sobre o impacto da negociação de alta frequência em gerentes de portfólio de longo prazo e o cenário em evolução do setor financeiro. Ela enfatiza o papel da automação, big data e aprendizado de máquina na otimização do portfólio. Aldridge discute os desafios e as oportunidades apresentadas pelos dados de volume intradiário, defende a incorporação de fatores microestruturais e propõe uma abordagem passo a passo para a identificação de riscos em tempo real. Suas ideias contribuem para uma compreensão mais sutil da otimização de portfólio e destacam o potencial da realidade virtual e da automação para análise de dados. A abordagem abrangente de Aldridge incentiva os gerentes de portfólio a adotar os avanços tecnológicos e aproveitar as grandes quantidades de dados disponíveis para tomar decisões de investimento informadas.

Além disso, Aldridge enfatiza a importância de considerar fatores microestruturais que muitas vezes passam despercebidos na otimização de portfólio tradicional. Ao incorporar fatores como ETFs e flash crashes na análise, os gerentes de portfólio podem obter uma compreensão mais precisa da dinâmica do mercado e dos riscos associados. Ela desafia a noção de que as matrizes de correlação sozinhas são suficientes para a análise de risco e propõe uma abordagem mais sofisticada que leva em consideração fatores microestruturais independentes. Essa abordagem tem o potencial de aumentar os retornos do portfólio e melhorar o desempenho ajustado ao risco.

Aldridge também lança luz sobre o intrincado mundo das negociações de alta frequência. Ela discute a distinção entre estratégias HFT agressivas e passivas, destacando seu impacto na liquidez e volatilidade do mercado. Enquanto estratégias agressivas envolvendo cancelamento de pedidos podem corroer a liquidez e aumentar o risco, estratégias passivas focadas em pedidos limitados e criação de mercado podem fornecer liquidez e reduzir a volatilidade. Compreender a dinâmica da negociação de alta frequência e suas implicações na alocação de portfólio é essencial para os gestores de portfólio de longo prazo.

Além disso, Aldridge discute os desafios e oportunidades associados aos dados de volume intradiário. Com várias trocas e intervalos de tempo cada vez menores, analisar e interpretar efetivamente esses dados pode ser complexo. No entanto, Aldridge vê isso como uma oportunidade de inovação e mais pesquisas. Ela menciona o Processador de Informações de Segurança (SIP) operado pela SEC, que agrega ordens limitadas de várias bolsas para determinar o melhor negócio e a melhor oferta. No entanto, ela reconhece que conciliar e resolver problemas entre diferentes bolsas continua sendo um desafio.

A apresentação de Aldridge também enfatiza a importância do uso de fatores como forma de defesa na otimização do portfólio. Ao considerar vários fatores além das características tradicionais de risco-retorno, os gerentes de portfólio podem obter insights mais profundos e melhorar seu processo de tomada de decisão. Fatores como capitalização de mercado, beta, preço e volatilidade intradiária podem fornecer informações valiosas para otimizar portfólios de longo prazo.

Por fim, Aldridge aborda o potencial da realidade virtual e automação na análise de dados. Esses avanços tecnológicos oferecem novas possibilidades para analisar dados financeiros complexos e obter uma compreensão mais profunda da dinâmica do mercado. Ao aproveitar o poder da automação e alavancar as ferramentas de realidade virtual, os gerentes de portfólio podem aprimorar seus recursos de análise de dados e tomar decisões de investimento mais informadas.

Em conclusão, a discussão de Irene Aldridge sobre o impacto da negociação de alta frequência e o cenário financeiro em evolução fornece informações valiosas para gerentes de portfólio de longo prazo. Sua exploração de automação, big data e aprendizado de máquina destaca o potencial transformador dessas tecnologias na otimização de portfólio. Ao incorporar fatores microestruturais, utilizando fatores como uma forma de defesa e adotando avanços tecnológicos, os gerentes de portfólio podem se adaptar à dinâmica do mercado em mudança e desbloquear novas oportunidades para alcançar o desempenho ideal do portfólio a longo prazo.

  • 00:00:00 Irene Aldridge discute o equívoco de que a negociação de alta frequência não afeta os gerentes de portfólio de longo prazo. Embora muitos gerentes afirmem que podem manter ativos por um longo tempo e, assim, evitar o impacto da negociação de alta frequência, Aldridge argumenta que isso realmente afeta os gerentes de portfólio de longo prazo. Ela explica como as mudanças sistêmicas no mercado e como elas afetam a todos podem levar a implicações para os gerentes de portfólio, independentemente de sua estratégia de investimento ser de longo ou curto prazo. Aldridge tem experiência em engenharia elétrica, desenvolvimento de software, gerenciamento de riscos e finanças, e seu trabalho inclui a exploração de novas áreas, como risco em tempo real e otimização de portfólio.

  • 00:05:00 Nesta seção, o palestrante discute a mudança para a automação no setor financeiro e como, mesmo uma década atrás, a maioria das negociações era feita manualmente. No entanto, agora a automação tornou-se predominante não apenas na negociação de ações, mas também na negociação de câmbio, renda fixa e commodities. O objetivo da automação é substituir o comércio humano, e aqueles que permanecem relevantes no setor adotaram big data e aprendizado de máquina para se manterem atualizados. No entanto, alguns comerciantes resistiam a compartilhar seus conhecimentos com computadores, temendo que isso levasse à automação imediata e à sua própria obsolescência.

  • 00:10:00 Irene Aldridge fala sobre a evolução do big data e como ele está sendo usado na otimização de portfólio. Ela observa que apenas alguns anos atrás, a maioria das instituições financeiras não tinha acesso a grandes quantidades de dados, mas isso mudou e agora existem bancos de dados de dados estruturados e não estruturados que podem ser processados de diferentes maneiras para gerar insights úteis. Um desses métodos é a decomposição de valor singular (SVD), que reduz grandes quantidades de dados em formas mais gerenciáveis. Aldridge explica como o SVD está sendo usado para automatizar a alocação de portfólio, que é um setor que está à beira da automação. Embora algumas empresas ainda usem pesquisadores para analisar dados mensais e tomar decisões de investimento com base nesses dados, a tendência é incorporar o máximo de dados possível para informar as decisões de investimento.

  • 00:15:00 Irene Aldridge discute o processo de redução de dimensões de dados por meio da decomposição de valores singulares. Ao traçar os valores singulares extraídos por meio desse processo, os pesquisadores podem determinar quais vetores contêm informações significativas e se concentrar em manter esses vetores enquanto consideram o restante como ruído. Essa técnica pode ser aplicada a uma variedade de conjuntos de dados, incluindo dados financeiros, como capitalização de mercado, beta, preço e volatilidade intradiária. O conjunto de dados reduzido resultante fornece orientação confiável para fins de pesquisa e ajuda a identificar fatores importantes para otimização de portfólio de longo prazo.

  • 00:20:00 Nesta seção, Irene Aldridge discute os fatores comumente usados por analistas de portfólio, como preço e risco de mercado ou beta. A capitalização de mercado e o rendimento de dividendos também são fatores usados na otimização de portfólio que estão incluídos na estrutura usada por empresas como MSCI, Barra e outras. Aldridge explica como eles estimam a atividade institucional usando big data em dados de ticks e procurando padrões específicos nos dados. A atividade institucional é importante porque é um sinal visível para os participantes do mercado, o que pode levar ao ataque de outros participantes do mercado, fazendo com que o volume da ordem aumente e resulte na execução favorável da ordem.

  • 00:25:00 Irene Aldridge discute a diferença entre estratégias HFT agressivas e passivas, ambas impactando a liquidez. As estratégias agressivas de HFT podem ser orientadas por alfa e envolvem muitos cancelamentos de pedidos, o que corrói a liquidez e contribui para o risco, enquanto as estratégias passivas de HFT, que envolvem pedidos puramente limitados, como criação de mercado, podem reduzir a volatilidade ao fornecer mais liquidez. Os investidores institucionais preferem um preço médio ponderado pelo volume, enquanto os preços médios ponderados pelo tempo ainda são usados em alguns mercados, como câmbio, onde o volume nem sempre está disponível. No geral, HFT é um tópico complexo que apresenta benefícios e riscos.

  • 00:30:00 Nesta seção, Irene Aldridge discute a estrutura das colunas de dados e os desafios que acompanham os dados de volume intradiário, dado o grande número de trocas, os intervalos cada vez menores de mudanças e a questão de encontrar o melhor negócio e melhor oferta entre várias trocas. Apesar dos desafios, ela acredita que os dados de volume intradiário podem ser divididos e divididos de várias maneiras diferentes e apresentam uma oportunidade para inovação e pesquisas adicionais. Ela também menciona o Processador de Informações de Segurança (SIP) executado pela SEC que agrega ordens limitadas de várias bolsas e determina o melhor negócio e a melhor oferta, mas observa que conciliar e resolver problemas entre diferentes bolsas ainda é um desafio.

  • 00:35:00 O palestrante explica que, embora os gestores de portfólio de longo prazo se preocupem principalmente com as características de risco-retorno e não se preocupem com a execução, existem muitas microestruturas e fatores de risco completamente inexplorados que poderiam ser usados como insumos, como bem como muitos dados que podem fornecer novas informações e insights. Eles propõem uma abordagem passo a passo que envolve o uso de decomposição de valor singular para prever o desempenho com base em retornos anteriores e alavancar big data para identificar e lidar com riscos em tempo real. O palestrante também observa que há muitos pedidos de ping e outras complexidades nas trocas que nem sempre são óbvias para os operadores humanos, mas podem ser identificadas e alavancadas usando algoritmos.

  • 00:40:00 Nesta seção, Irene Aldridge discute as limitações da otimização de portfólio tradicional para investimentos de longo prazo e apresenta uma nova abordagem que integra a microestrutura e outros fatores de mercado no processo de otimização. Ela explica como fatores como ETFs e flash crashes podem atrapalhar o mercado e como as matrizes de correlação podem não ser suficientes para analisar o risco. Ao considerar fatores microestruturais que são independentes de movimentos de mercado maiores, Aldridge propõe uma abordagem mais sutil para otimização de portfólio que pode melhorar retornos e índices de Sharpe. Ela observa que sua abordagem é abordada com mais detalhes em seu livro e responde a perguntas do público sobre negociação de alta frequência.

  • 00:45:00 Irene Aldridge explica a persistência da negociação de alta frequência em um dia e como isso afeta a alocação de portfólio de longo prazo. Ela observa que, embora o volume de negociação intradiária de alta frequência possa variar de 0 a 100, ao longo do tempo, tem sido bastante estável para o Google, por exemplo, com uma variação de 36-42%. Essa estabilidade também persiste para outras ações. A negociação de alta frequência tem um custo menor ao negociar ações com preços mais altos, e há uma porcentagem menor de volume de negociação de alta frequência para penny stocks. Além disso, os operadores de alta frequência tendem a evitar ações com altos dividendos devido à complexidade da codificação. A negociação agressiva de alta frequência é aquela que utiliza ordens de mercado ou ordens de limite agressivas próximas ao preço de mercado.

  • 00:50:00 Irene Aldridge explica o ciclo de vida de três anos de uma estratégia quantitativa, onde no primeiro ano, o quant traz uma estratégia de sucesso do trabalho anterior e ganha um bom bônus, no segundo ano tenta inovar mas muitas pessoas lutam para produzir uma estratégia de sucesso e, no terceiro ano, se encontrarem algo bom, podem ganhar um bom bônus, caso contrário, saem e levam a estratégia anterior para uma nova loja. Isso contribui para a concentração de estratégias de negociação de alta frequência semelhantes, que podem ser ajustadas ou ligeiramente modificadas e, muitas vezes, executadas quase ao mesmo tempo. Aldridge acredita que a negociação de alta frequência é boa e não desculpável, pois é automação, assim como os robôs que limpam o chão ou um sistema de automação residencial que controla o aquecimento e o resfriamento.

  • 00:55:00 Irene Aldridge, Presidente e Diretora Administrativa da Able Alpha Trading, discute o potencial da realidade virtual e automação para análise de dados. Ela também aborda a utilidade de portfólios e fatores baseados em beta, citando o exemplo de comprar um par de meias versus comprar um computador Dell e como as mudanças no beta afetam seus preços de maneira diferente. Ela enfatiza a importância da normalização das devoluções e aborda a questão da aleatoriedade nos dias úteis. Por fim, Aldridge aborda o uso de fatores como uma forma de defesa e sugere que o uso de fatores pode ser divertido.

  • 01:00:00 Nesta seção, Aldridge discute o uso de uma matriz de computador para determinar a importância ou coeficiente de cada ação em uma carteira. As linhas da matriz representam cada ação, com a primeira linha representando maçãs e as outras linhas sendo dados de mercado para diferentes ações. Ao incorporar variância, covariância e encolhimento, a matriz pode incorporar o retorno e fazer ajustes para alcançar um resultado mais específico. Isso é feito encontrando o X-mas no retorno dos dias anteriores e prevendo a partir daí. Embora o modelo de brinquedo descrito seja apenas um exemplo básico, ele mostra como uma matriz de computador pode ser usada para otimizar um portfólio.
 

Noções básicas de negociação quantitativa



Noções básicas de negociação quantitativa

Neste vídeo sobre os fundamentos da negociação quantitativa, o comerciante algorítmico Shaun Overton discute os desafios e oportunidades envolvidos na negociação algorítmica. Overton explica que a coleta, análise e negociação de dados são os três problemas simples envolvidos na negociação algorítmica, embora o processo possa ser complicado devido à localização de dados de alta qualidade e análise adequada. Pode ser um desafio selecionar a plataforma certa com bons dados e recursos para atender aos objetivos do trader, sendo as plataformas mais populares MetaTrader, NinjaTrader e TradeStation, dependendo do tipo de negociação preferido. Overton também discute a dura realidade de como é fácil explodir contas ao negociar no mercado real e como é importante gerenciar o risco. Além disso, ele explica como os traders quantitativos podem prever movimentos exagerados no mercado e discute o impacto das guerras cambiais.

O vídeo "Basics of Quantitative Trading" no YouTube abrange várias estratégias para negociação algorítmica, incluindo análise de sentimento e estratégias de longo prazo baseadas em linhas de gráfico; no entanto, os maiores retornos são feitos durante eventos e tendências de big tail. Os participantes do vídeo discutem diferentes plataformas para backtesting, desafios de integração de múltiplas plataformas para análise de negociação e o crescente interesse em formalizar e automatizar estratégias de negociação. Alguns traders de longo prazo buscam a automação, pois estão no jogo há muito tempo, e o NinjaTrader para linguagens de programação é recomendado, mas tem limitações.

  • 00:00:00 O comerciante algorítmico Shaun Overton explica os três problemas simples envolvidos na negociação algorítmica: coleta de dados, análise e negociação. No entanto, o processo pode se tornar complicado devido a obstáculos como encontrar dados de alta qualidade e análise adequada, especialmente porque a negociação exige um exame cuidadoso dos dados. A negociação usando opções gratuitas não é recomendada, pois elas podem conter duplicatas ou lacunas nos dados. Além disso, o uso de opções pagas está fora do alcance do comerciante de varejo, pois pode custar milhares de dólares por instrumento. No entanto, a negociação pode ser simplificada usando plataformas que oferecem software e APIs de corretoras.

  • 00:05:00 O palestrante discute as diferentes opções de software disponíveis para análise de dados e colocação de negócios. As plataformas mais populares para negociação forex são MetaTrader, NinjaTrader e TradeStation, dependendo do tipo de negociação preferido. O MetaTrader é esmagadoramente o mais popular e existem mais de mil corretores em todo o mundo que o oferecem. O palestrante explica que o uso de uma plataforma pré-construída como essas opções torna a negociação e a análise de dados mais simples e evita a necessidade de recodificar a análise várias vezes quando chega a hora de negociar. O palestrante também aborda as diferentes linguagens de programação utilizadas por cada plataforma.

  • 00:10:00 O palestrante discute diferentes plataformas para negociação quantitativa e explica como o Multicharts se tornou popular copiando a plataforma e a linguagem da TradeStation. No entanto, existem diferenças entre os idiomas e nem sempre é totalmente compatível. O palestrante também fala sobre a importância dos dados na negociação quantitativa e os desafios que acompanham cada plataforma. Ele observa que o MetaTrader é simples de usar, mas não sofisticado o suficiente para análises mais complexas, e os dados fornecidos geralmente são de baixa qualidade. No geral, o palestrante destaca a importância de selecionar cuidadosamente uma plataforma com bons dados e recursos que atendam aos objetivos do trader.

  • 00:15:00 Shaun Overton discute os desafios de coletar e armazenar dados para estratégias de negociação quantitativa. Ele explica as dificuldades em tentar armazenar anos de dados de teste e as limitações que os corretores colocam na obtenção de dados devido às limitações do servidor. Ele observa que, embora o MetaTrader ofereça dados gratuitos, não são dados de alta qualidade, enquanto o NinjaTrader fornece bons dados, mas tem uma curva de aprendizado íngreme para configurar. Ele também adverte sobre os perigos de programar estratégias específicas para um determinado corretor, uma vez que casa o trader com aquele corretor em particular, dificultando a troca se eles estiverem insatisfeitos. Ele lista os motivos pelos quais os traders podem ficar chateados com um corretor, incluindo serviço ruim e execução ruim.

  • 00:20:00 Shaun Overton explica alguns dos problemas e jogos que os corretores jogam para ganhar dinheiro com os comerciantes e seus negócios. Os corretores podem manipular os preços de mercado e os negócios para forçar os comerciantes a pagar mais por seus negócios, mostrando um preço e, em seguida, fazendo com que os comerciantes aceitem um preço pior. Além disso, um comerciante pode receber execução ruim devido à latência ruim ou falha de software. Atualmente, o maior problema com negociação algorítmica é a corrupção institucionalizada e como as instituições podem roubar dinheiro de comerciantes devido a acidentes tecnológicos, bem como Dark Pools e outros locais de negociação que possuem suas próprias regras para manipular negociações.

  • 00:25:00 O palestrante discute as limitações das plataformas específicas de corretoras para negociação quantitativa. Embora possam ser eficientes para estratégias extremamente simples, eles têm limitações e não podem suportar nada mais sofisticado. O palestrante recomenda plataformas estáveis como NinjaTrader e MultiCharts, que possuem boa qualidade de pesquisa e permitem programação customizada e ajustes de GUI. No entanto, o palestrante alerta que essas plataformas não são adequadas para gerenciar carteiras ou administrar fundos, pois não têm a capacidade de conversar com vários gráficos e exigem muito trabalho manual.

  • 00:30:00 Shaun Overton discute a dura realidade de como é fácil explodir contas ao negociar no mercado ao vivo, onde 90-95% das contas são fechadas em 6 meses ou um ano inteiro. Existem 2 maneiras pelas quais os corretores ganham dinheiro, por comissões ou risco, e frequentemente a maneira mais popular e lucrativa é assumindo perdas comerciais. Os comerciantes regulares ganham dinheiro quando a volatilidade é baixa, mas quando é alta, eles são dizimados. Fala-se de gestão de risco, mas para a maioria das pessoas é apenas conversa fiada e continuam a perder dinheiro por não gerir o seu risco.

  • 00:35:00 Shaun discute como a volatilidade afeta as estratégias de negociação quantitativa e como os comerciantes de varejo tendem a errar em suas previsões de mercado. Ele explica como a proporção de posições longas versus curtas pode ser rastreada por corretores com acesso a contas de clientes e como essas informações podem ser usadas para prever movimentos estendidos demais. Overton observa que essas informações estão se tornando mais amplamente disponíveis, com sites como MyFxBook e OANDA publicando dados sobre posicionamento de mercado. No entanto, ele adverte que, embora essas informações possam ser uma mina de ouro para os corretores, elas podem não fornecer um fluxo de caixa estável e resultar em períodos de grandes perdas.

  • 00:40:00 Shaun Overton discute o potencial para os comerciantes quantitativos de olhar para os fundos dos clientes dos principais bancos para elaborar estratégias longas e curtas com base na porcentagem de negociações indo em uma determinada direção. Ele também comenta o ceticismo dos investidores de varejo em relação ao mercado de ações, principalmente diante das notícias negativas recentes, levando a uma retirada de bilhões de dólares desde o último crash. Overton também menciona uma notícia recente na CNBC sobre grandes gestores de fundos e seu impacto nas ações de grandes empresas, demonstrando o poder do dinheiro institucional em movimentar o mercado.

  • 00:45:00 Discute-se como o trading institucional, especialmente em forex, pode não ser tão influente no mercado quanto o trading de varejo devido ao tamanho médio das contas dos traders. No entanto, avaliações maiores e maiores quantias de dinheiro negociadas levam a que mais pessoas mexam com os preços, e mesmo pequenos eventos, como negociações embriagadas, podem ter um impacto no mercado. O principal impulsionador das moedas são as taxas de juros, e é uma guerra cambial em que todos querem uma taxa de juros zero, tornando mais difícil determinar qual moeda do país é a mais fraca. Por fim, o par de moedas do Japão, o dólar iene, é analisado em termos de sua história e como seus preços caindo podem estar relacionados ao enfraquecimento do dólar e ao fortalecimento do iene.

  • 00:50:00 Shaun Overton discute o impacto das guerras cambiais sobre os exportadores. Ele explica como exportadores como a Toyota são fortemente impactados quando o valor da moeda em que operam aumenta de valor. Overton afirma que existe atualmente uma guerra cambial entre as principais moedas, onde os países estão tentando se desvalorizar, com todos competindo para ser zero. Portanto, os comerciantes precisam especular sobre quem fará o pior trabalho na destruição de uma moeda, pois serão os melhores nesse ambiente. Overton sente que o dólar é atualmente um desastre, mas o melhor desastre até agora. Riscos e eventos sociais específicos do país, como 11 de setembro e o desastre de Fukushima, também podem afetar os preços das moedas.

  • 00:55:00 Os palestrantes discutiram o comércio em mercados estreitos e moedas exóticas. Foi mencionado que, para negociação algorítmica, você precisa de liquidez e um spread fino, o que dificulta a negociação em moedas menos populares, como o rand sul-africano ou a lira turca. Além disso, o spread dessas moedas pode ser 8 ou 9 vezes maior do que custa negociar o euro em relação ao dólar, dificultando o lucro. Em relação às estratégias para aqueles com menos de 50 mil em suas contas, os palestrantes mencionam a importância de se concentrar em coisas como o relatório Commitments of Traders nos mercados futuros para obter insights sobre as posições de mercado.

  • 01:00:00 Um grupo discute várias estratégias para negociação algorítmica, incluindo análise de sentimento e uma estratégia simples de longo prazo baseada em linhas de gráficos. O desafio da negociação é entender a distribuição dos retornos, pois na maioria das vezes é apenas ruído. No entanto, os maiores retornos são feitos durante eventos e tendências de big tail. Portanto, as melhores estratégias não ganham dinheiro consistentemente, mas agarram as oportunidades quando elas estão lá. Apesar do desejo de sinais e ação, é melhor deixar o mercado fazer o que vai fazer. O Quantopian, um programa que analisa dados de mercado, também é mencionado.

  • 01:05:00 Nesta seção, os participantes do vídeo do YouTube "Basics of Quantitative Trading" discutem diferentes plataformas que usam para backtesting e otimização, bem como os desafios de integrar várias plataformas para análise de negociação e desenvolvimento de estratégia. Enquanto alguns participantes observam que a Quantopian fornece uma plataforma para análise individual e está negociando contratos com corretores para potencialmente resolver desafios de integração de plataformas, outros discutem as limitações de plataformas como NinjaTrader e as dificuldades de integrá-las a outras plataformas, com alguns destacando o fato de que eles são mais adequados para negociação manual ou como ferramentas simples de backtesting. Além disso, Shaun Overton observa que seu negócio é construído em torno da formalização e automação das próprias estratégias dos traders, com os participantes observando que tanto os traders individuais quanto os mercados estão demonstrando interesse crescente em formalizar e automatizar suas estratégias de negociação.

  • 01:10:00 Os traders que participam de um seminário de negociação quantitativa perguntam sobre os benefícios de automatizar certas estratégias de negociação. Shaun Overton, o palestrante, observa que alguns traders que estão no jogo há 10, 20 ou mesmo 30 anos simplesmente querem automatizar suas estratégias para que não precisem mais monitorá-las o dia todo. Ao discutir linguagens de programação específicas de negociação, Overton endossa o NinjaTrader porque ele roda em C Sharp, mas observa que há limitações para o que pode ser feito dentro dele.
Basics of Quantitative Trading
Basics of Quantitative Trading
  • 2013.02.26
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton speaks to the meetup group Dallas Algorithmic Traders about quantitative trading. Most members of the audience h...
 

O que é um comerciante quant?



O que é um comerciante quant?

"O que é um comerciante quantitativo?" é um vídeo em que Michael Halls-Moore mergulha no mundo do comércio quantitativo, explicando como a matemática e a estatística são usadas para desenvolver estratégias de negociação e analisar as ineficiências do mercado. Embora os fundos quantitativos se concentrem principalmente em estratégias de curto prazo, o palestrante destaca que abordagens automatizadas e de baixa frequência também são utilizadas. Os comerciantes institucionais priorizam o gerenciamento de risco, enquanto os comerciantes de varejo são movidos pelos lucros. A detecção efetiva do regime de mercado é crucial, mas desafiadora devido a eventos aleatórios no mercado. É aconselhável que os comerciantes quant não confiem apenas em um único modelo, mas pesquisem e testem constantemente novos modelos para explicar a dinâmica de mercado conhecida e desconhecida. Apesar dos riscos envolvidos, os comerciantes quantitativos bem-sucedidos podem obter um retorno anual impressionante de 35% sobre as taxas.

No vídeo, Michael Halls-Moore oferece uma perspectiva perspicaz sobre o conceito de "negociador quantitativo". Ele explica que os comerciantes quant empregam técnicas matemáticas e estatísticas no campo das finanças, utilizando métodos computacionais e estatísticos. Seu trabalho abrange uma ampla gama de atividades, desde a programação de estruturas de negociação até a realização de pesquisas aprofundadas e o desenvolvimento de estratégias de negociação robustas. Embora as regras de compra e venda desempenhem um papel, elas não são o único foco, pois os comerciantes quant operam dentro de um sistema maior onde os geradores de sinal são apenas um componente.

Os fundos Quant normalmente se envolvem em negociações de alta frequência e se esforçam para otimizar a tecnologia e as microestruturas dos ativos de mercado. Os prazos envolvidos na negociação de quant podem variar muito, variando de microssegundos a semanas. Os comerciantes de varejo têm uma oportunidade significativa na adoção de estratégias de estilo de alta frequência.

Ao contrário da crença popular, a negociação quantitativa não se concentra apenas na negociação e arbitragem de alta frequência. Ele também incorpora estratégias automatizadas e de baixa frequência. No entanto, devido à sua abordagem científica de capitalizar as ineficiências físicas do sistema, os fundos quantitativos concentram-se predominantemente em estratégias de curto prazo. O palestrante enfatiza a importância de ter uma mistura de experiências científicas e comerciais para prosperar no campo do comércio quantitativo.

Uma distinção notável entre comerciantes de varejo e institucionais reside em sua abordagem ao gerenciamento de risco. Os comerciantes de varejo são movidos principalmente por motivos de lucro, enquanto os comerciantes institucionais priorizam o gerenciamento de risco, mesmo que isso signifique sacrificar retornos potenciais. Os traders institucionais adotam uma mentalidade de risco em primeiro lugar e enfatizam a devida diligência, testes de estresse e implementação de apólices de seguro contra perdas para mitigar os riscos de forma eficaz.

O gerenciamento de risco envolve várias técnicas, como ajustar a alavancagem com base no patrimônio da conta usando estruturas matemáticas como o critério de Kelly. Os traders mais conservadores optam por reduzir os rebaixamentos para atingir uma taxa de crescimento controlada. Os principais indicadores de risco, como o VIX, são utilizados para avaliar a volatilidade futura. Nessas negociações, o sistema de gerenciamento de risco tem mais importância do que o sistema de entrada. Enquanto os stop loss são empregados no acompanhamento de tendências, as estratégias de reversão à média exigem a reavaliação e a exploração de diferentes cenários e dados históricos para o planejamento de rebaixamento. Antes de implementar algoritmos de negociação, as fases de backtesting são conduzidas para gerenciar os fatores de risco de forma eficaz.

O vídeo investiga a importância de filtrar estratégias de negociação e usar backtesting como uma ferramenta para filtrá-las, em vez de colocá-las diretamente em produção. Ele destaca a importância de esperar reduções piores durante o avanço e utilizar mecanismos de filtragem para determinar a adequação de uma estratégia de implementação. A conversa, então, aprofunda a crença de Nassim Nicholas Taleb em fat tails e explora como a tecnologia de aprendizado de máquina pode ser empregada para aplicar estratégias de negociação de intervalo e negociação de tendência, permitindo a detecção do regime de mercado.

A detecção eficaz do regime de mercado é um aspecto crítico das finanças quantitativas. No entanto, apresenta desafios devido à sua dependência de eventos aleatórios, como quedas nas taxas de juros e tendências do mercado. Empresas mais sofisticadas rastreiam dados fundamentais e os incorporam em seus modelos para aprimorar a detecção do regime de mercado. Ao negociar, a seleção de ações ou ETFs depende do mercado específico, e escolher os ativos certos pode ser uma tarefa complexa. O palestrante enfatiza que uma combinação de modelos matemáticos e fundamentos de mercado é crucial para uma defesa eficaz contra eventos do Cisne Negro, pois períodos anteriores de alta volatilidade podem fornecer insights para prever a volatilidade futura e as mudanças no mercado.

O vídeo explora ainda mais os possíveis retornos e riscos associados ao comércio quantitativo. Os comerciantes Quant têm o potencial de obter um retorno anual impressionante de 35% sobre as taxas, especialmente quando combinados com uma sólida formação educacional, como um PhD, e um processo de gerenciamento eficiente. No entanto, os quants de alta frequência podem enfrentar desafios quando ocorrem alterações no hardware ou na troca subjacente, levando potencialmente a falhas no sistema.

Apesar dos riscos envolvidos, é considerado favorável alcançar um retorno consistente de 15% a 20% explorando oportunidades lucrativas no longo prazo. Os comerciantes Quant não dependem de um único algoritmo mágico ou entram em pânico quando se deparam com problemas. Em vez disso, eles se aprofundam em propriedades estatísticas que podem ser complexas de analisar, mas se preparam com antecedência para lidar com possíveis desafios.

O vídeo enfatiza a importância de evitar o excesso de confiança em um único modelo na negociação quantitativa. Os modelos não podem prever com precisão todos os eventos futuros, como evidenciado pelas quebras históricas de Wall Street e falhas de investimento resultantes de deficiências do modelo. É essencial que os traders de quant pesquisem e testem continuamente novos modelos, avaliando seu desempenho. Os períodos de saque são uma parte inerente da jornada de negociação e os traders devem estar preparados para navegar por eles.

Em conclusão, embora alguns traders possam se concentrar demais em microgerenciar seus modelos, é vital entender se um modelo é responsável por toda a dinâmica do mercado, incluindo as incógnitas desconhecidas. Os comerciantes Quant devem adotar uma abordagem multidimensional, combinando modelos matemáticos com os fundamentos do mercado para obter uma compreensão abrangente do comportamento do mercado. Ao refinar e diversificar constantemente suas estratégias, os comerciantes quant podem aumentar suas chances de sucesso em um cenário financeiro em constante evolução.

  • 00:00:00 Nesta seção, Michael Halls-Moore explica o significado de "quant trader", que é alguém que usa matemática ou estatística em finanças de maneira computacional e estatística. Isso pode variar desde a programação de estruturas de negociação até a pesquisa de negociação hardcore e o desenvolvimento de uma estratégia. A importância das regras de compra e venda não é tão significativa quanto outros aspectos, e os geradores de sinais são apenas parte de um sistema maior. Os fundos Quant geralmente lidam com negociações de maior frequência e se concentram na otimização de tecnologia e microestruturas nos ativos de mercado. O período de tempo típico para traders quantitativos varia de microssegundos a semanas, e a maior oportunidade do trader de varejo está em estratégias de estilo de frequência mais alta.

  • 00:05:00 Nesta seção, aprendemos que a negociação quantitativa não se trata apenas de negociação e arbitragem de alta frequência, pois também inclui estratégias automatizadas e de baixa frequência. No entanto, os fundos quantitativos geralmente se concentram em estratégias de curto prazo devido à sua abordagem científica de explorar ineficiências físicas no sistema. O palestrante acredita que ter uma mistura de conhecimento científico e comercial é crucial para ter sucesso no comércio quantitativo. Quando se trata de gestão de risco, ele observa uma diferença cultural entre varejo e comércio institucional, onde o último tem uma mentalidade de risco em primeiro lugar e enfatiza a devida diligência, testes de estresse e apólices de seguro contra perdas.

  • 00:10:00 Nesta seção, o vídeo discute as diferentes abordagens usadas por traders de varejo e institucionais em relação ao gerenciamento de risco. Enquanto os comerciantes de varejo são principalmente orientados para o lucro, os comerciantes institucionais se concentram no gerenciamento de riscos, mesmo que os retornos potenciais sejam apenas uma fração do que é possível. O vídeo menciona o critério de Kelly como um meio matemático de ajustar a alavancagem com base no patrimônio da conta, com traders mais conservadores optando por um slide em que reduzem seu rebaixamento para atingir uma taxa de crescimento mais controlada. Além disso, os principais indicadores de risco, como o VIX, são usados para ver a volatilidade futura. O sistema de gerenciamento de risco é mais importante do que o sistema de entrada nessas negociações, com stop loss sendo utilizado no seguimento de tendência, mas não na reversão à média, onde os traders repensam e exploram diferentes cenários e históricos para planejamento de rebaixamento. Antes de iniciar os algoritmos de negociação, são realizadas fases de backtest para gerenciar os fatores de risco.

  • 00:15:00 Nesta seção, o entrevistador e o quant trader discutem a importância de filtrar estratégias de negociação e como usar o backtesting como um meio de filtrar estratégias em vez de colocá-las em produção. Eles destacam a importância de esperar perdas piores durante o avanço e usar um mecanismo de filtragem para determinar se uma estratégia é adequada ou não para implementação. A conversa então se volta para a crença de Taleb em caudas gordas e como aplicar estratégias de negociação de intervalo e negociação de tendência no futuro usando tecnologia de aprendizado de máquina para determinar mudanças de regime de mercado.

  • 00:20:00 Nesta seção, o palestrante enfatiza a importância da detecção efetiva do regime de mercado em finanças quantitativas. O problema é que é difícil manter isso em mente porque se baseia em eventos puramente aleatórios, como queda nas taxas de juros e tendências do mercado. Embora a detecção de regimes de mercado seja complicada, as empresas mais sofisticadas estarão rastreando dados fundamentais e incorporando-os em seus modelos. Ao negociar, dependendo do que se está negociando, há diferentes números de ações ou ETFs para escolher, e selecionar o certo pode ser complicado. Além disso, o palestrante acredita que a defesa do Cisne Negro depende da combinação de modelos matemáticos e fundamentos do mercado, uma vez que a volatilidade horrível anterior pode permitir prever a volatilidade futura e as mudanças do mercado.

  • 00:25:00 Nesta seção, o vídeo explica os retornos que os quant traders podem esperar e os riscos que isso traz. Um comerciante quantitativo pode obter um retorno anual de 35% sobre as taxas, com a ajuda de um PhD e um processo de gerenciamento eficiente. No entanto, os quants de alta frequência podem sofrer devido a alterações no hardware ou na troca subjacente, causando a falha do sistema. Apesar desses riscos, devolver 15 a 20% na exploração de algo que é possível fazer a longo prazo é um bom retorno. Os comerciantes quânticos não têm um único algoritmo mágico nem entram em pânico quando enfrentam problemas. Espera-se que eles passem por algumas propriedades estatísticas difíceis de analisar e preparar com antecedência.

  • 00:30:00 Nesta seção, o palestrante discute como não é aconselhável confiar demais em um único modelo na negociação quantitativa, pois um modelo não pode prever todos os eventos futuros com precisão. Ele cita exemplos de quebras clássicas de Wall Street e falhas de investimento principalmente devido a deficiências de modelo. O palestrante enfatiza a importância de pesquisar continuamente novos modelos e verificar seu desempenho; no entanto, sempre haverá períodos de rebaixamento. Em conclusão, enquanto alguns traders podem chegar ao ponto de microgerenciar seus modelos, é essencial entender se o modelo é responsável por toda a dinâmica do mercado ou pelas incógnitas desconhecidas.
What is a quant trader?
What is a quant trader?
  • 2013.12.02
  • www.youtube.com
http://www.onestepremoved.com/ Shaun Overton interviews Michael Halls-Moore, a quantitative developer. Mike jumped from postgraduate school straight into alg...
 

PyCon Canada 2015 - Karen Rubin: Construindo uma Estratégia de Negociação Quantitativa (Keynote)



PyCon Canada 2015 - Karen Rubin: Construindo uma Estratégia de Negociação Quantitativa (Keynote)

Continuando a discussão, Karen Rubin investiga as descobertas e percepções de seu estudo sobre CEOs do sexo feminino nas empresas da Fortune 1000. A análise revela que as CEOs do sexo feminino geram um retorno de 68%, enquanto os CEOs do sexo masculino geram um retorno de 47%. No entanto, Karen enfatiza que seus dados ainda não demonstram que as CEOs do sexo feminino superam seus colegas do sexo masculino. Ela considera este estudo como um conceito intrigante dentro de empresas de alta receita e alta capitalização de mercado.

Motivada por suas descobertas, Karen enfatiza a importância da diversidade na indústria de finanças e tecnologia. Ela incentiva mais mulheres a ingressarem no campo e participarem da formulação de estratégias de investimento. Ela acredita que incorporar ideias como investir em CEOs mulheres pode contribuir para a criação de um fundo diverso e inclusivo.

Ampliando a discussão, Karen aborda outros fatores que podem influenciar o sucesso dos CEOs, incluindo o sexo, o método de contratação (interno ou externo) e até mesmo o mês de nascimento. Ela reconhece a teoria de que as empresas podem nomear CEOs do sexo feminino quando a organização está tendo um desempenho ruim e, posteriormente, substituí-las por CEOs do sexo masculino para colher os benefícios da reestruturação. No entanto, Karen não foi capaz de arbitrar essa teoria até agora. Além disso, ela observa que os preços das ações costumam cair após o anúncio de um CEO, embora ela permaneça incerta se essa tendência difere entre CEOs mulheres e homens.

Em conclusão, Karen destaca que a construção de uma estratégia de negociação quantitativa para CEOs envolve a consideração de vários fatores e a realização de análises minuciosas. Embora seu estudo forneça informações valiosas sobre o desempenho de CEOs do sexo feminino, ela enfatiza a necessidade de mais pesquisas e exploração para obter uma compreensão mais abrangente da dinâmica de gênero na liderança executiva e seu impacto nos resultados do investimento.

  • 00:00:00 Nesta seção, a palestrante apresenta a si mesma e sua experiência em escrever um algoritmo para investir no mercado. Como vice-presidente de produtos da Quantiacs, um fundo de hedge de crowdsourcing, ela precisava escrever um algoritmo para entender o que seus usuários estavam fazendo para que pudesse criar um software eficaz para eles. Ela se interessou em investir em CEOs do sexo feminino depois de ler o relatório de gênero do Credit Suisse e se perguntou se poderia criar uma estratégia que analisasse as CEOs do sexo feminino historicamente e vendesse quando elas não fossem mais o CEO.

  • 00:05:00 Nesta seção, Karen Rubin fala sobre os passos iniciais que ela deu na construção de uma estratégia de negociação quantitativa. Ela precisava obter uma lista histórica de todas as CEOs do sexo feminino em um período de tempo específico para criar uma simulação do que aconteceu ao longo do tempo. Karen explica que obter e limpar os dados consumiu uma quantidade significativa de seu tempo durante os estágios iniciais do projeto, pois ela tinha que pesquisar e analisar manualmente as datas de início e término de cada CEO e os símbolos correspondentes. Ela também fala sobre os desafios de garantir que os dados de preços sejam precisos e limpos antes de analisá-los. Apesar do pequeno tamanho da amostra, Karen continuou a avançar com seu estudo.

  • 00:10:00 Nesta seção, Karen Rubin explica o processo de seu teste de volta na negociação algorítmica e como a simulação funciona em sua estratégia. Ela simula sua estratégia como se estivesse negociando no mercado real, passando por dados históricos e tomando decisões de compra e venda para ela com base em sua lista de CEOs do sexo feminino. Ela compara sua primeira versão do algoritmo a um benchmark que é o S&P 500. No entanto, mais tarde ela reescreve sua estratégia com a ajuda de seu quant residente devido a sua falha em considerar a alavancagem em sua estratégia anterior.

  • 00:15:00 Nesta seção do vídeo, Karen Rubin discute como ela reequilibrou sua estratégia de negociação para garantir um portfólio ponderado igual em todas as empresas. Seu algoritmo compra e vende empresas e calcula o valor de seu portfólio para garantir que ela não esteja perdendo dinheiro ou tendo que pedir dinheiro emprestado para fazer compras no futuro. Ela também discute o feedback que recebeu da comunidade Reddit e Hacker News, que questionou se sua estratégia dependia dos preços das ações do Yahoo e do Alibaba. Ela removeu o Yahoo de sua estratégia para testar essa teoria e descobriu que, embora impactasse os retornos gerais, não era a única causa desses retornos.

  • 00:20:00 Nesta seção, o palestrante discute como evitar o viés do setor criando um portfólio neutro em relação ao setor. Ao dividir o valor da carteira pelo número de setores, todas as empresas desse setor recebem uma quantia igual de investimento. Por exemplo, se a Saúde tiver três empresas, sua alocação seria dividida em terços, enquanto a Consumo Cíclico, que tem cerca de 20 empresas, cada uma receberia um vigésimo do valor total alocado ao setor. Os retornos resultantes da estratégia do palestrante são de 275%, enquanto o benchmark de igual peso retorna 251% e o S&P 500 retorna 122%. Enquanto alguns argumentam que benchmarks como o S&P 500 não são filosoficamente precisos, já que suas empresas não são igualmente ponderadas, o índice RSP Guggenheim Equal Weight S&P 500 fornece um benchmark melhor para fins de comparação.

  • 00:25:00 Nesta seção, Karen Rubin discute os desafios de encontrar o benchmark certo ao investir em CEOs do sexo feminino. Ela destaca que, embora o benchmark Fortune 1000 pareça a escolha certa, a compra de sua lista de constituintes históricos é cara. Em vez disso, ela cria o Quanto 1000, um novo benchmark ao classificar todas as empresas por receita e selecionar as 1000 melhores. diferença. Ela também explora um novo conjunto de dados do Event Fessor sobre mudanças de CEO, o que lhe permite criar estratégias comparativas entre CEOs masculinos e femininos. Os resultados mostram que uma estratégia que investe em CEOs do sexo feminino na data em que assumem o cargo e para na data em que saem retorna 28% em um período de sete anos, em comparação com CEOs do sexo masculino, que retornam 44%.

  • 00:30:00 Nesta seção, Karen detalha os resultados de seu estudo sobre CEOs do sexo feminino nas empresas da Fortune 1000. A análise mostrou que as CEOs do sexo feminino estão retornando 68%, enquanto os CEOs do sexo masculino retornam 47%. No entanto, Karen acredita que seus dados ainda não mostram que as CEOs do sexo feminino estão superando seus colegas do sexo masculino. Ela acha que este estudo fornece uma ideia interessante sobre CEOs mulheres em empresas de alta receita e alta capitalização de mercado. Karen quer incentivar a diversidade na indústria de finanças e tecnologia e convida mais mulheres a ingressarem na área. Ela acredita na importância de trazer ideias como investir em CEOs mulheres para criar um fundo diversificado.

  • 00:35:00 Nesta seção, o palestrante discute vários fatores que podem influenciar o sucesso dos CEOs, incluindo gênero, contratação interna ou externa e mês de nascimento. Ela também aborda a teoria de que as empresas contratam CEOs do sexo feminino quando apresentam desempenho ruim e as substituem por CEOs do sexo masculino para colher os benefícios da reestruturação. No entanto, ela não foi capaz de arbitrar essa teoria. Além disso, ela observa que os preços das ações costumam cair após o anúncio de um CEO, mas ela não tem certeza se essa tendência é diferente para CEOs mulheres e CEOs homens. No geral, há muitos fatores a serem considerados ao criar uma estratégia de negociação quantitativa para CEOs.
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
PyCon Canada 2015 - Karen Rubin: Building a Quantitative Trading Strategy (Keynote)
  • 2015.11.24
  • www.youtube.com
PyCon Canada 2015: https://2015.pycon.ca/en/schedule/67/Talk Description:Upon joining Quantopian, in order to understand her users better, Karen Rubin embark...
 

Aprendizado de Máquina para Webinar de Negociação Quantitativa com o Dr. Ernie Chan



Aprendizado de Máquina para Webinar de Negociação Quantitativa com o Dr. Ernie Chan

O Dr. Ernie Chan, uma figura proeminente no setor financeiro, compartilha suas ideias e experiências com o aprendizado de máquina na negociação. Ele começa refletindo sobre suas primeiras tentativas de aplicar o aprendizado de máquina à negociação e reconhece que inicialmente não produziu resultados bem-sucedidos. O Dr. Chan enfatiza a importância de entender as limitações do aprendizado de máquina na negociação, particularmente em negociações de futuros e índices, onde os dados podem ser insuficientes.

No entanto, ele destaca o potencial do aprendizado de máquina na geração de estratégias de negociação lucrativas quando aplicado a ações de tecnologia individuais, dados do livro de pedidos, dados fundamentais ou fontes de dados não tradicionais, como notícias. Para lidar com as limitações de disponibilidade de dados e viés de espionagem de dados, o Dr. Chan sugere a utilização de técnicas de reamostragem, como sobreamostragem ou ensacamento. Essas técnicas podem ajudar a expandir o conjunto de dados, mas é crucial preservar a autocorrelação serial nos dados da série temporal ao usá-los para estratégias de negociação.

A seleção de recursos desempenha um papel vital em aplicativos de aprendizado de máquina bem-sucedidos na negociação. O Dr. Chan enfatiza a importância de reduzir o viés de amostragem de dados selecionando recursos ou preditores relevantes. Ele explica que, embora muitas pessoas acreditem que ter mais recursos é melhor, na negociação, um conjunto de dados rico em recursos pode levar a autocorrelação espúria e resultados ruins. Ele discute três algoritmos de seleção de recursos: seleção de recursos avançados, árvores de classificação e regressão (CART) e floresta aleatória, que ajudam a identificar as variáveis mais preditivas.

O Dr. Chan investiga o algoritmo de classificação das máquinas de vetores de suporte (SVM), que visa prever retornos futuros de um dia e sua natureza positiva ou negativa. O SVM encontra um hiperplano para separar os pontos de dados e pode exigir transformações não lineares para uma separação efetiva. Ele também aborda outras abordagens de aprendizado de máquina, como redes neurais, mas destaca suas limitações na captura de recursos relevantes e sua inadequação para negociação devido à natureza não estacionária dos mercados financeiros.

O webinar também enfatiza a importância de uma função de destino personalizada em uma estratégia de negociação. O Dr. Chan recomenda técnicas como regressão passo a passo, árvores de decisão e regressão por conjunto para desenvolver modelos preditivos. Ele ressalta a importância de reduzir a raiz quadrada do número de negócios para obter alta precisão na proteção de retornos. O índice de Sharpe é apresentado como uma referência eficaz para avaliar a eficácia da estratégia, com um índice de dois ou mais considerado favorável.

O Dr. Chan fornece informações valiosas sobre a aplicação do aprendizado de máquina no setor financeiro, destacando seu potencial em determinadas áreas e alertando sobre suas limitações. Ele enfatiza a importância da seleção de recursos, reamostragem de dados e seleção de uma função de destino apropriada para aplicativos de aprendizado de máquina bem-sucedidos em negociações quantitativas.

  • 00:00:00 Nesta seção, o Dr. Ernie Chan compartilha sua formação e experiências com aprendizado de máquina no setor financeiro. Ele discute como não conseguiu aplicar o aprendizado de máquina à negociação, apesar de sua experiência na área e de trabalhar para empresas conhecidas. O Dr. Chan compartilha que o objetivo da palestra é explicar as armadilhas do aprendizado de máquina e por que ele não funciona na negociação, bem como como pode funcionar na negociação. Ele observa que, quando começou a usar aprendizado de máquina na negociação, cometeu o erro de pensar que funcionaria em barras diárias e usando indicadores técnicos como entradas, o que acabou não rendendo resultados bem-sucedidos.

  • 00:05:00 Nesta seção, o Dr. Ernie Chan discute as limitações do uso de algoritmos de aprendizado de máquina em futuros e negociação de índices devido a dados insuficientes e o risco de viés de espionagem de dados. Ele acredita que o aprendizado de máquina tem mais potencial para gerar estratégias de negociação lucrativas quando aplicado a ações individuais de tecnologia, dados de livros de pedidos, dados fundamentais ou dados não tradicionais, como notícias. Para superar a limitação de dados insuficientes e viés de espionagem de dados, o Dr. Chan sugere o uso de técnicas de reamostragem, como sobreamostragem ou ensacamento. Embora a reamostragem possa expandir o conjunto de dados, uma consideração cuidadosa deve ser dada para preservar a autocorrelação serial em dados de séries temporais ao usar essas técnicas para estratégias de negociação.

  • 00:10:00 Nesta seção, o Dr. Chan discute o uso de trigramas no aprendizado de máquina, que permite o uso de vários dias como entrada em vez de apenas um único dia para preservar a autocorrelação. Ele também enfatiza a importância de reduzir o viés de amostragem de dados, o que pode ser feito reduzindo o número de recursos ou preditores. Embora muitas pessoas pensem que ter mais recursos é melhor, esse não é o caso na negociação, pois um conjunto de dados rico em recursos é uma maldição devido à autocorrelação espúria entre os recursos e o alvo. Portanto, a seleção de recursos é crítica e os algoritmos de aprendizado de máquina que oferecem suporte à seleção de recursos são ideais para negociação. O Dr. Chan destaca três desses algoritmos, incluindo regressão passo a passo, florestas aleatórias e regressão LASSO. Ele adverte que a rede neural e os algoritmos de aprendizado profundo, que não selecionam recursos, mas pegam tudo e os misturam, não são ideais para negociação.

  • 00:15:00 Nesta seção, o Dr. Ernie Chan discute três algoritmos de seleção de recursos diferentes: seleção de recursos avançados, árvores de classificação e regressão (CART) e floresta aleatória. A seleção de recursos avançados envolve a adição de recursos aos modelos de regressão linear, um de cada vez, até que o algoritmo identifique quais deles melhoram a previsibilidade. Por outro lado, o CART é semelhante a uma árvore de decisão e opera hierarquicamente com condições impostas a cada iteração para fins de classificação. Floresta aleatória é uma técnica que pode ser aplicada a diferentes algoritmos de classificação combinando ensacamento com subespaço aleatório, que envolve dados de superamostragem e preditores de subamostragem para alcançar um equilíbrio entre dados e recursos. O Dr. Chan fornece uma tabela de exemplo com recursos hipotéticos para prever o retorno de amanhã para explicar melhor o conceito.

  • 00:20:00 Nesta seção, o Dr. Ernie Chan discute o processo de redução do conjunto de recursos usando algoritmos de classificação, como árvores de regressão de classificação. Ele explica que existem muitas técnicas para isso, como a subamostragem ou o uso de informações mútuas. No entanto, ele afirma que essas técnicas são as mais simples e conhecidas. Usando uma amostra representativa dos dados, ele demonstra como o algoritmo funciona, identificando quais indicadores técnicos são úteis para prever retornos futuros e quais valores desses indicadores gerarão retornos positivos ou negativos. Uma vez classificado um subconjunto de dados, o processo é reiterado para identificar outras variáveis para melhor classificação.

  • 00:25:00 Nesta seção, o Dr. Ernie Chan explica que os algoritmos de aprendizado de máquina funcionam encontrando variáveis preditivas e parâmetros úteis para o classificador e iterando até que nenhuma significância estatística seja encontrada. Os algoritmos de aprendizado de máquina geralmente são sistemas de regressão estatística com mais detalhes e condições nos dados. Ele passa a discutir o algoritmo de classificação de máquinas de vetores de suporte, que visa prever retornos futuros de um dia e se eles serão positivos ou negativos. O algoritmo tenta encontrar um hiperplano para cortar os dados, mas frequentemente uma transformação não linear é necessária para encontrar uma separação. Essa transformação é crítica para fazer a máquina de vetores de suporte funcionar de forma eficaz.

  • 00:30:00 Nesta seção, o Dr. Chan discute a necessidade de reamostrar dados se não houver dados suficientes para o algoritmo de aprendizado de máquina aprender, embora a quantidade necessária seja relativa a quantos preditores existem. Ele descreve como as Support Vector Machines são uma maneira de classificar os dados e, embora seja menos um algoritmo de seleção de recursos do que a Stepwise Regression ou a Classification Tree, o SVM encontra um hiperplano que pode cortar qualquer dimensão. Ele observa que as redes neurais são uma equação não linear e ajustam os dados com uma função linear monstruosa em vez de usar uma função linear como na regressão e que o aprendizado profundo é simplesmente uma rede neural com muitas camadas, mas muito poucos nós por camada. torna mais fácil capturar recursos em etapas.

  • 00:35:00 Nesta seção, o Dr. Ernie Chan discute o conceito de usar uma rede neural para negociação quantitativa. Ele explica que uma rede neural é uma ferramenta poderosa porque pode aproximar qualquer função não linear e é capaz de prever o retorno de amanhã com base nas variáveis de hoje. No entanto, ele também observa que a rede neural não funciona bem na negociação porque os mercados financeiros não são estacionários e é difícil capturar recursos relevantes usando essa abordagem. Ele enfatiza que a rede neural usa todas as entradas e não seleciona recursos, tornando difícil encontrar variáveis que tenham um efeito causal no mercado.

  • 00:40:00 Nesta seção, o Dr. Ernie Chan explica quando o aprendizado de máquina é útil para os traders. O aprendizado de máquina é útil quando os traders não têm intuição sobre seus dados ou o mercado, ou se não possuem um modelo matemático de seus dados. Além disso, o aprendizado de máquina pode ajudar os traders a desenvolver a intuição quando há muitos recursos ou quando eles não sabem quais recursos são importantes. No entanto, se os traders tiverem boa intuição e um modelo matemático simples, é melhor construí-los em vez de usar o aprendizado de máquina. Os comerciantes também devem ter cuidado ao usar o aprendizado de máquina se tiverem poucos dados ou se houver mudanças de regime em seu mercado, porque um modelo de mercado ruim pode levar a algoritmos que desmoronam quando há uma mudança de regime.

  • 00:45:00 Nesta seção do webinar, o Dr. Ernie Chan explica a importância de usar dados estacionários ao aplicar técnicas de aprendizado de máquina em negociações quantitativas. Ele observa que muitos testes estatísticos e técnicos podem ser usados para determinar a estacionariedade de um conjunto de dados, mas os resultados geralmente podem ser ambíguos. O Dr. Chan também discute seu ceticismo em relação à eficácia do aprendizado por reforço e do aprendizado profundo na negociação devido à falta de replicação fora da amostra bem-sucedida. Além disso, ele enfatiza a necessidade de uma função de destino personalizada em uma estratégia de negociação e sugere o uso de técnicas como regressão por conjunto ou árvores de decisão para modelagem preditiva.

  • 00:50:00 Nesta seção, o Dr. Ernie Chan discute a seleção da função de destino no aprendizado de máquina para negociação quantitativa e explica que a disponibilidade de dados determina a seleção da função de destino. Se a função de destino for um retorno de um mês, os retornos diários se tornarão a entrada e a seleção da variável de destino deverá corresponder à escala de tempo da variável preditora. O Dr. Chan também explica a diferença entre Adam e os métodos de aprendizado profundo, afirmando que o aprendizado profundo é menos bom na seleção de recursos. Além disso, a seção se aprofunda na definição de diferentes regimes e em como defini-los com base em seus critérios preferidos. Por fim, o Dr. Chan enfatiza que o número de negócios no comércio quantitativo não é o fator determinante para o sucesso.

  • 00:55:00 Nesta seção, o Dr. Ernie Chan discute como reduzir a raiz quadrada de n para um número administrável é crucial para alcançar alta precisão na proteção de retorno. Ele explica que o erro é proporcional à raiz quadrada do número de negócios, e o índice de Sharpe é uma excelente medida de significância estatística, pois incorpora esse conceito em sua construção. Uma estratégia com uma proporção de Sharpe de dois ou mais é considerada eficaz. Embora a última pergunta mencionada por Christophe possa ser muito técnica, o Dr. Chan acredita que o índice de Sharpe é uma boa referência para a eficácia da estratégia.
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
Machine Learning for Quantitative Trading Webinar with Dr. Ernie Chan
  • 2017.03.28
  • www.youtube.com
Quantitative trading and algorithmic trading expert Dr. Ernie Chan teaches you machine learning in quantitative finance. You will learn:1) The pros and cons ...