Negociação quantitativa - página 26

 

Negociação algorítmica em mercados de commodities



Negociação algorítmica em mercados de commodities

Sunil Lani, vice-presidente adjunto da NCDEX (National Commodity and Derivatives Exchange), aproveita a oportunidade para mergulhar no mundo da negociação algorítmica nos mercados de commodities, com foco específico em commodities agrícolas. A NCDEX, sendo a maior bolsa agrícola da Índia, oferece uma gama diversificada de aproximadamente 20 commodities para negociação.

Lani começa apresentando os três estilos populares de negociação comumente empregados nos mercados de commodities: hedge, arbitragem e negociação direcional. Ele destaca o hedge como uma estratégia de investimento usada para mitigar o risco associado a um investimento primário. No contexto do NCDEX, os agricultores geralmente protegem seus ativos agrícolas subjacentes para minimizar a exposição ao risco.

Seguindo em frente, o palestrante muda a discussão para dois tipos de estratégias de negociação predominantes nos mercados de commodities: hedge e arbitragem. Lani enfatiza a importância de ativos subjacentes altamente correlacionados em estratégias de hedge. Para negociação de arbitragem, ele investiga duas abordagens específicas: spread de calendário e negociação de pares, observando que esta última compartilha semelhanças com estratégias de hedge. Lani enfatiza a importância de selecionar commodities altamente correlacionadas e cointegradas para negociação de pares, sugerindo a aplicação do teste T Fuller para garantir a validade das correlações.

Além disso, Lani fornece uma visão geral dos vários estágios envolvidos na negociação algorítmica. Ele explica que o processo começa com a identificação e filtragem de scripts ou instrumentos apropriados para aplicar o conceito de negociação. Posteriormente, o modelo é visualizado, seguido de rigoroso backtesting e otimização de parâmetros ou do próprio modelo. As próximas etapas envolvem negociação em papel e, eventualmente, a transição para negociação ao vivo, onde o dinheiro real está em jogo.

Continuando sua discussão, Lani se concentra nas etapas iniciais da negociação algorítmica. Ele enfatiza a importância de debater ideias de negociação e finalizar uma lógica de negociação que se alinhe com os objetivos do trader. As principais considerações incluem determinar a frequência das negociações, selecionar o segmento apropriado para negociação e estabelecer os períodos de backtesting. Para ilustrar os desafios de entender os dados para estratégias comerciais, o palestrante apresenta dados sobre a Produção Interna Bruta (PIB) da Índia em vários setores. Ele converte os dados em representações gráficas, facilitando um melhor entendimento e sugere examinar as correlações com movimentos de preços. Além disso, Lani apresenta representações visuais de dados agrícolas históricos, enfatizando a importância de analisar dados de múltiplas perspectivas.

O palestrante passa a discutir os recursos necessários para negociação algorítmica nos mercados de commodities. Ele categoriza as estratégias de negociação em duas áreas principais: arbitragem e impulso. Técnicas como negociação de pares, análise de correlação, médias móveis e distribuição de probabilidade são comumente empregadas. A infraestrutura é um aspecto crucial da negociação algorítmica, incluindo conectividade a um corretor por meio de uma API e hospedagem do algoritmo na nuvem ou no local. Lani também destaca a importância da visualização de dados e indicadores técnicos, que podem ser realizados por meio de ferramentas como Excel, Tableau, Power BI e TradingView.

Lani explora ainda mais várias ferramentas e plataformas adequadas para negociação algorítmica em mercados de commodities. Ele menciona que não programadores ou semiprogramadores geralmente optam por plataformas como Metatrader e Interactive Brokers. Para fins de programação pura, Python surge como a linguagem líder, com plataformas de negociação algorítmica baseadas em Python, como Quantopian, Blueshift, QuanTX e Zerodha ganhando popularidade. Além disso, o palestrante destaca bibliotecas essenciais para processamento de dados e backtesting, incluindo Pandas, Numpy, Beautifulsoup, Backtrader, bem como bibliotecas de análise de sentimento como Stream Python, Feedparser, Peopie e NLP.

No segmento seguinte, Lani explica o processo de geração de uma ideia comercial e desenho de um modelo usando commodities agrícolas como exemplo. Dado que as commodities agrícolas tendem a ser menos voláteis do que as ações ou Forex, ele propõe a aplicação de uma estratégia de reversão à média usando Bollinger Bands como um indicador, especificamente definido em dois desvios padrão da faixa de preço médio. Os critérios de filtragem para selecionar uma commodity líquida envolvem a escolha de uma com volume de pelo menos 1080, e Lani recomenda negociar Jana no NCDX. Para visualizar o modelo, Lani sugere o uso do Investing.com para desenhar as Bandas de Bollinger, com diferentes níveis indicando os pontos de compra e venda.

Mudando o foco para backtesting, Lani enfatiza sua importância na verificação da lógica de um modelo algorítmico de negociação usando dados históricos. Esta etapa é crucial para evitar possíveis perdas quando o modelo é implantado em um ambiente ativo. Lani explica as etapas envolvidas no backtesting, que incluem baixar dados de um portal aberto, importar bibliotecas relevantes, escrever funções de suporte, gerar sinais de compra e venda, visualizar a saída e avaliar o retorno gerado pela estratégia. Ele também sugere considerar parâmetros como retornos, rebaixamento máximo, lucro máximo e stop-loss durante o processo de backtesting. Lani aconselha o uso de funções pessoais de backtesting em vez de depender apenas de bibliotecas obtidas de plataformas como o Github.

O palestrante explica os vários parâmetros que uma função usa para gerar sinais de compra e venda com base em quadros de dados, tipos de estratégia, critérios de entrada e saída e feed posicional. Os traders podem configurar o preço de abertura ou fechamento para seus cálculos, bem como definir stop-loss e porcentagens-alvo. Lani também discute uma função de relatório estatístico e outra função que cria níveis usando desvio padrão para um indicador escolhido. Por fim, a função principal invoca essas outras funções para retornar sinais de compra e venda com base na estratégia escolhida e gerar um resumo.

Avançando, Lani demonstra como gerar relatórios de backtesting de negociação usando a habilidade posicional prática de BV. A saída inclui um quadro de dados contendo todas as negociações, taxas de transação e bordas de deslizamento. A função de backtesting é invocada e os relatórios são gerados. Esses relatórios fornecem estatísticas e representações gráficas da saída, mostrando os retornos percentuais, detalhes da transação e retornos cumulativos durante um período de tempo especificado. Lani analisa o relatório e sugere definir um stop-loss em torno de -1,5 para evitar perdas superiores a -2% ou -3%. O lucro máximo obtido com os resultados do backtesting foi de 8%, indicando que o stop-loss pode ser definido em no máximo 8% ou 9%.

O palestrante então discute o processo de otimização de um algoritmo. Lani explica que uma abordagem de otimização envolve a criação de outro algoritmo que executa o algoritmo original várias vezes usando diferentes conjuntos de parâmetros. Para ilustrar isso, ele fornece um exemplo em que o período de retrospectiva para um período de reversão é otimizado. Ao criar uma lista de vários valores para o período de retrospectiva e utilizar uma função de combinação, uma lista abrangente de todos os conjuntos de parâmetros pode ser gerada. Lani enfatiza a importância de otimizar algoritmos para melhorar seu desempenho nos mercados de commodities.

Continuando a discussão sobre otimização, Lani explica o processo de usar três listas para avaliar cada par por meio do método do cotovelo com diferentes parâmetros para backtesting. Os resultados do backtesting são armazenados em um quadro de dados chamado otimizador DF, permitindo a identificação da combinação que produz o máximo retorno. As variáveis otimizadas são então armazenadas na função otimizada. Lani adverte contra o superajuste dos dados durante o processo de otimização e destaca a importância de executar os mesmos parâmetros no próximo período para garantir sua precisão. Por fim, o palestrante baixa o relatório para examinar os resultados.

Lani passa a apresentar o código utilizado para otimizar os parâmetros de negociação e compartilha as estatísticas resultantes, incluindo retornos, retornos médios, rebaixamento máximo e taxa de perdas e ganhos. Os parâmetros otimizados resultaram em um retorno de 22,8%, uma melhora significativa em relação aos 9% obtidos com a combinação de parâmetros anterior. Lani ressalta a importância da negociação em papel para testar algoritmos sem arriscar dinheiro real e enfatiza a necessidade de diversificação, gerenciamento de portfólio e gerenciamento de risco ao fazer a transição para negociação ao vivo. Ele conclui observando as semelhanças entre o processo de desenvolvimento de negociação algorítmica e o ciclo de vida de desenvolvimento de produtos de software, enfatizando a importância de executar todas as etapas diligentemente para garantir o sucesso do projeto.

  • 00:00:00 Sunil Lani, vice-presidente adjunto da NCDEX, discute negociação algorítmica em mercados de commodities, especificamente commodities agrícolas. NCDEX é a maior bolsa agrícola da Índia e oferece cerca de 20 commodities para negociação. Lani explica que existem três estilos de negociação populares quando se trata de commodities: cobertura, arbitragem e negociação direcional. A cobertura é um investimento para mitigar o risco de um investimento primário e, no NCDEX, os agricultores protegem seus próprios ativos subjacentes para minimizar o risco.

  • 00:05:00 O palestrante discute dois tipos de estratégias de negociação no mercado de commodities: hedge e arbitragem. O palestrante enfatiza a importância de ativos subjacentes altamente correlacionados no hedge. Enquanto isso, na arbitragem, o palestrante se aprofunda em duas formas de negociação: spread de calendário e negociação de pares, sendo esta última semelhante ao hedge. O palestrante destaca que as commodities escolhidas para negociação em pares devem ser altamente correlacionadas e cointegradas, e recomenda a aplicação do teste T Fuller para garantir isso. Além disso, o palestrante fornece uma visão geral das várias etapas da negociação algorítmica, que inclui identificar e filtrar scripts ou instrumentos para aplicar o conceito de negociação, visualizar o modelo, backtesting, otimizar parâmetros ou modelo, negociação em papel e negociação ao vivo.

  • 00:10:00 O palestrante discute as etapas iniciais da negociação algorítmica, começando com ideias de brainstorming e finalizando uma ideia de lógica de negociação. Eles mencionam a necessidade de identificar a frequência das negociações, qual segmento usar para negociação e os períodos de back-testing. Em seguida, o palestrante apresenta dados sobre a Produção Interna Bruta (PIB) dos diversos setores da Índia para demonstrar a dificuldade de compreensão dos dados para estratégias comerciais. Eles convertem os dados em uma representação gráfica para dar uma melhor compreensão e sugerem observar as correlações com o preço. O palestrante então apresenta representações visuais de dados agrícolas ao longo do tempo para demonstrar como os dados podem ser interpretados de forma diferente e a importância de analisá-los de várias maneiras.

  • 00:15:00 O palestrante discute os recursos necessários para negociação algorítmica nos mercados de commodities. Ele divide as estratégias de negociação em duas áreas principais, que incluem arbitragem e impulso, com técnicas como negociação de pares, correlação, médias móveis e distribuição de probabilidade. Um dos aspectos mais importantes da negociação algorítmica é a infraestrutura, incluindo a conexão a um corretor por meio da API e a hospedagem do algoritmo na nuvem ou no local. Além disso, ferramentas como Excel, Tableau, Power BI e TradingView podem ser utilizadas para visualização de dados e aplicação de indicadores técnicos.

  • 00:20:00 O palestrante discute várias ferramentas e plataformas que podem ser usadas para negociação algorítmica em mercados de commodities. Para não programadores ou semiprogramadores, Metatrader e Interactive Brokers são opções populares, enquanto Python é a linguagem de programação líder para ferramentas de programação pura. Em particular, plataformas de negociação algorítmica baseadas em Python, como Quantopian, Blueshift, QuanTX e Zerodha, são discutidas em detalhes. O palestrante também destaca bibliotecas populares de processamento de dados e back-testing, como Pandas, Numpy, Beautifulsoup e Backtrader, e bibliotecas de análise de sentimento, como Stream Python, Feedparser, Peopie e NLP.

  • 00:25:00 O palestrante explica como ter uma ideia de negociação e projetar um modelo usando um exemplo de commodities agrícolas, que são relativamente menos voláteis do que ações e Forex. A ideia é aplicar uma estratégia de reversão à média usando um indicador chamado Bollinger Bands, definido em dois desvios padrão da faixa de preço médio. Os critérios de filtragem incluem a seleção de uma mercadoria líquida com um volume de pelo menos 1080, para o qual o palestrante sugere negociar Jana no NCDX. O modelo pode ser visualizado usando o Investing.com desenhando as Bandas de Bollinger, com diferentes níveis indicando os pontos de compra e venda.

  • 00:30:00 O palestrante discute o processo de backtesting de um modelo de negociação algorítmica nos mercados de commodities. O backtesting é importante para verificar a lógica usando dados históricos e evitar perder dinheiro se o modelo tiver um desempenho ruim no ambiente real. Vários parâmetros, como retornos, rebaixamento máximo, lucro máximo e stop loss, devem ser considerados durante o backtesting. O palestrante também explica as etapas envolvidas no backtesting, incluindo baixar dados de um portal aberto, importar bibliotecas, escrever funções de suporte, gerar sinais de compra e venda, visualizar a saída e avaliar o retorno gerado pela estratégia. O palestrante também menciona o uso de suas próprias funções de backtesting em vez de bibliotecas do Github.

  • 00:35:00 O palestrante explica os diferentes parâmetros que uma função recebe para retornar sinais de compra e venda com base em quadros de dados, tipos de estratégia, critérios de entrada e saída e feed posicional. A função permite que os traders configurem o preço de abertura ou fechamento para seus cálculos, bem como stop loss e porcentagens-alvo. O palestrante também aborda uma função que gera relatórios estatísticos e uma função que cria níveis usando desvio padrão para um indicador escolhido. Por fim, a função principal invoca as outras funções para retornar sinais de compra e venda com base na estratégia escolhida e gerar um resumo.

  • 00:40:00 O palestrante mostra como gerar relatórios de backtesting de negociação usando a habilidade posicional prática de BV. A saída inclui um quadro de dados com todas as negociações, taxas de transação e bordas de deslizamento. A função de backtesting é invocada e os relatórios gerados. Os relatórios incluem estatísticas e representações gráficas da saída que mostram a porcentagem de retornos, transações e retornos cumulativos durante um período de tempo. O palestrante analisa o relatório e aconselha a definir o stop-loss em torno de -1,5 para evitar perdas de -2% e -3%. O lucro máximo obtido foi de 8%, o que significa que o stop loss pode ser definido em 8% ou 9% no máximo.

  • 00:45:00 O palestrante discute o processo de otimização de um algoritmo. Eles explicam que uma maneira de otimizar um algoritmo é criar outro algoritmo que executará o algoritmo original várias vezes usando diferentes conjuntos de parâmetros. O palestrante fornece um exemplo desse processo no qual eles otimizam o período de retrospectiva para um período de retrocesso. Eles criam uma lista de vários valores para o período de retrospectiva e usam uma função de combinação para criar uma lista abrangente de todos os conjuntos de parâmetros. O palestrante enfatiza a importância de otimizar algoritmos para melhorar seu desempenho nos mercados de commodities.

  • 00:50:00 O palestrante discute o processo de usar três listas para executar cada par através do método de cotovelo com diferentes parâmetros para verificar os resultados do backtesting, armazenando-os em um quadro de dados chamado otimizador DF. Eles verificam a combinação que retém os retornos máximos e armazenam as variáveis otimizadas na função otimizada. O processo de otimização deve ser cuidadoso para não sobreajustar os dados. Eles enfatizam a importância de executar os mesmos parâmetros no próximo período para garantir que os parâmetros de otimização estejam corretos. Por fim, o palestrante baixa o relatório para ver os resultados.

  • 00:55:00 O palestrante repassa o código usado para otimizar os parâmetros de negociação e as estatísticas produzidas, incluindo retornos, retornos médios, rebaixamento máximo e taxa de perdas e ganhos. Os parâmetros otimizados resultaram em um retorno de 22,8%, uma melhoria significativa em relação aos 9% da combinação anterior. Eles enfatizam a importância da negociação de papel para testar o algoritmo sem investir dinheiro e a necessidade de diversificação, portfólio e gerenciamento de risco ao entrar no ar. Eles também observam que o processo de desenvolvimento da negociação algorítmica é semelhante ao ciclo de vida de desenvolvimento de produtos de software.

  • 01:00:00 O palestrante explica como as etapas da negociação algorítmica podem ser comparadas às do desenvolvimento de software, com a formulação da estratégia de negociação sendo semelhante ao estágio de planejamento e requisitos, e negociação de papel e mapeamento de negociação de simulação para Garantia de Qualidade. O palestrante enfatiza que todas as etapas são importantes e a não execução adequada de qualquer uma delas pode levar ao fracasso de todo o projeto.
 

Prever tendências nos mercados de ações usando programação de IA e Python



Prever tendências nos mercados de ações usando programação de IA e Python

Esta sessão de webinar oferece um tutorial de aprendizado prático focado na previsão de tendências usando IA no mercado de ações. Os participantes se envolverão ativamente na criação de um modelo de árvore de classificação usando um Jupyter Notebook. O objetivo principal é desenvolver uma árvore de classificação que possa servir como uma ferramenta para estabelecer regras de negociação com base nos retornos futuros positivos ou negativos antecipados.

A utilização de um modelo de árvore de decisão na negociação é uma técnica essencial de aprendizado de máquina que fornece uma experiência de aprendizado imersiva e interativa. Durante a sessão, os participantes terão a oportunidade de trabalhar diretamente em um notebook Python ao lado de um instrutor.

O webinar visa cobrir as seguintes áreas principais:

  • Obter uma compreensão dos conceitos subjacentes e da intuição por trás de vários indicadores e aprender sua aplicação prática
  • Trabalhando com dados dos mercados de ações dos EUA para gerar indicadores comerciais essenciais

A sessão gravada investiga como o modelo de árvore de decisão pode ser aproveitado na negociação para extrair regras de negociação valiosas. Essas regras servem como base para a tomada de decisões informadas sobre quando comprar ou vender títulos.

Ao longo do vídeo, os participantes irão adquirir conhecimentos sobre:

  • Utilizando inteligência artificial (IA) e a linguagem de programação Python para prever tendências nos mercados de ações
  • Visualização eficaz de dados para obter insights
  • Construindo regras de negociação com base em retornos futuros usando um modelo de árvore de decisão
  • Compreender as variáveis de previsão e as variáveis de destino, compreender a lógica por trás de cada indicador técnico e implementá-los efetivamente
  • Explorando uma variedade de indicadores de negociação
  • Aplicar os conceitos aprendidos aos dados do mundo real dos mercados de ações dos EUA para desenvolver os indicadores de negociação necessários

Para se beneficiar totalmente deste webinar, os participantes devem possuir:

  • Conhecimento técnico relacionado a IA e aprendizado de máquina
  • Experiência anterior em negociação
  • Uma sólida compreensão do mercado de ações e sua dinâmica

Em relação às variáveis, as variáveis preditoras neste contexto referem-se aos indicadores técnicos empregados para prever as tendências do mercado. Por outro lado, a variável alvo significa a tendência esperada para o dia seguinte, especificamente se será positiva ou negativa.

 

Estratégias de gerenciamento de portfólio quantitativo Por Prodipta Ghosh - 23 de julho de 2019



Estratégias de gerenciamento de portfólio quantitativo Por Prodipta Ghosh - 23 de julho de 2019

Prodipta Ghosh, vice-presidente de Quantitative Portfolio Management, enfatiza que não existe uma estratégia única para negociação de ações devido à presença de incertezas nos mercados financeiros, à natureza dinâmica do mercado ao longo do tempo e aos objetivos variados e o apetite de risco dos indivíduos. Ele destaca que mesmo com uma visão ou modelo de mundo perfeito, seria impossível responder às questões dos traders, pois cada pessoa opera dentro de um contexto único. Portanto, não existe estratégia perfeita para ninguém no mundo.

Durante sua apresentação, Prodipta Ghosh investiga quatro estratégias quantitativas de gerenciamento de portfólio. Essas estratégias incluem a utilização de Bandas de Bollinger, empregando uma estratégia simples de cruzamento de média móvel, analisando o padrão de velas doji e incorporando o Índice de Força Relativa (RSI). Embora um alto índice de Sharpe possa teoricamente sugerir a melhor estratégia, o desempenho passado nem sempre garante resultados futuros. Portanto, é crucial construir um portfólio que englobe diversas estratégias e ativos para mitigar riscos e evitar perdas significativas. Ghosh demonstra os benefícios de alocar capital igualmente para todas as quatro estratégias, mostrando como um portfólio diversificado pode resistir à volatilidade do mercado e evitar perdas substanciais.

Prodipta Ghosh fornece uma explicação dos fundamentos da gestão de portfólio e a distingue do investimento em uma única ação. A gestão de portfólio envolve o desenvolvimento de uma estratégia para múltiplas estratégias ou ativos, levando em consideração riscos, incertezas, passagem do tempo e contextos específicos. O valor de uma estratégia é derivado dos retornos subjacentes multiplicados pelas posições, enquanto o valor do portfólio é determinado pelo fluxo ponderado de retornos subjacentes. Para otimizar o gerenciamento de portfólio, um problema matemático é resolvido definindo uma função U que depende do valor P do portfólio e encontrando os pesos W que maximizam U. Diferentes estratégias de otimização, como otimização de média-variância, otimização de Kelly e penalidade de risco otimização, pode ser empregado com base em como U é definido e na abordagem de otimização.

O palestrante passa a discutir estratégias quantitativas de gerenciamento de portfólio e o papel dos problemas de otimização no processo. Ele explora as várias restrições que podem ser especificadas em um problema de otimização, como limitar o alcance de um portfólio e os tipos de portfólios que podem ser construídos, incluindo aqueles baseados em estratégias alfa, portfólios de fatores ou coleções de ações individuais. O objetivo é definir uma condição de maximização que resulte em uma carteira com valor máximo ou função do valor da carteira. Além disso, o palestrante aborda a questão de saber se um portfólio igualmente ponderado é razoável, o que depende de circunstâncias específicas e pode ser visto como um problema de otimização com penalidade no quadrado dos erros.

Prodipta Ghosh investiga o conceito de risco e utilidade na gestão de portfólio, destacando os desafios na estimativa de retornos e riscos esperados. Ele apresenta a teoria moderna do portfólio e a utilidade quadrática como abordagens para maximizar os retornos e minimizar os riscos. O palestrante emprega o exemplo do paradoxo de Saint Pittsburgh para ilustrar como a tomada de decisão humana pode se desviar das médias matemáticas.

A relação entre utilidade e risco é explicada por Prodipta Ghosh, que enfatiza sua importância na construção de um portfólio sólido. Ele demonstra o conceito de prêmio de risco, que quantifica a diferença entre o pagamento ou retorno esperado de um investimento arriscado e o valor que um indivíduo está disposto a aceitar por um determinado pagamento. Além disso, ele explica que uma função de utilidade é uma representação matemática da riqueza que informa quanto vale um dólar a mais, auxiliando na determinação de valores adequados para investir. Compreender a interação entre utilidade e risco permite que os investidores desenvolvam portfólios que encontrem um equilíbrio entre risco e retorno.

O palestrante discute a noção de aversão ao risco no investimento, o que sugere que os investidores preferem certos investimentos em detrimento daqueles com retornos flutuantes. A aversão ao risco serve como uma suposição comum na gestão quantitativa de carteiras, com o prêmio de risco representado pela letra grega Pi. Esse prêmio denota o valor que um investidor está disposto a pagar para aceitar um retorno flutuante de média zero. O palestrante então explica a função de utilidade quadrática e como ela leva à otimização da média e variância de um portfólio. Construir uma carteira com base na Teoria Moderna da Carteira envolve encontrar um equilíbrio entre a média e a variância da carteira.

Prodipta Ghosh passa a explicar o processo de otimização da utilidade esperada do portfólio, encontrando um equilíbrio entre a média e a variância. Ele utiliza o Excel para simular retornos de diferentes ativos e calcula a matriz de covariância, que é então utilizada para determinar retornos, variância e risco do portfólio com base em diferentes ponderações. Variando os pesos e calculando o retorno e a variância do portfólio para todos os cenários possíveis, um problema de otimização pode ser resolvido. O gráfico resultante mostra o índice de Sharpe, que representa a relação entre retorno e risco, para cada conjunto de pesos.

O conceito de fronteiras eficientes na teoria moderna de portfólio é então introduzido por Prodipta Ghosh. Ele descreve a fronteira eficiente como a faixa em que uma carteira deve estar a fim de obter retornos máximos com base em uma determinada tolerância ao risco. Ele explica ainda que a adição de um ativo de baixo risco, como um ativo sem risco, acrescenta uma dimensão interessante ao conceito. O maior índice de Sharpe é identificado a partir da carteira tangente, que é a carteira formada pela combinação do ativo livre de risco com a fronteira eficiente. A linha que liga o zero à carteira tangente é chamada de linha de mercado e apresenta a escolha entre investir na carteira de mercado ou optar por um ativo livre de risco na hora de definir a alocação.

A Prodipta Ghosh investiga o Modelo de Precificação de Ativos de Capital (CAPM), que muda a perspectiva do risco em finanças, medindo-o como uma contribuição para o portfólio de mercado, em vez de um risco autônomo. O CAPM captura a taxa de retorno exigida para um ativo arriscado, calculada como a taxa livre de risco mais uma contribuição para a carteira de mercado em termos de risco multiplicada pela diferença entre o retorno de mercado e o retorno livre de risco. Este conceito fornece uma base teórica para o investimento em valor. Por meio de vários modelos, como fluxo de caixa descontado e modelos de compressão, os investidores podem estimar um preço justo usando o CAPM e capitalizar com uma melhor compreensão do risco idiossincrático.

O palestrante discute várias estratégias de gerenciamento de portfólio, com foco específico no investimento em fatores. O investimento em fatores envolve a consideração de vários fatores de risco, além do risco de mercado, ao construir um portfólio. Cada fator carrega um prêmio associado a ele, levando a diferentes estilos de investimento, incluindo alocação de fator, tempo de fator ou retorno ao investimento em valor e seleção de ações. O investimento em fatores ajuda a explicar o risco idiossincrático e fornece uma nova interpretação de alfa e beta, onde alfa e beta se tornam o alfa total se o delta F na equação for invariante no tempo e positivo.

Prodipta Ghosh destaca as principais diferenças entre investimento em valor e investimento em fator e considera qual abordagem faz mais sentido para os comerciantes de varejo. Ele observa que o investimento em valor requer extensa pesquisa em empresas individuais e muitas vezes envolve concentração em risco idiossincrático, que pode não ser adequado para comerciantes de varejo de pequena escala. Por outro lado, o investimento em fatores envolve pesquisar os fatores de risco do mercado e aproveitá-los sistematicamente para alocar investimentos com base nos retornos esperados. O palestrante aborda brevemente as distinções entre pesquisa discricionária e quantitativa, afirmando que a gestão quantitativa pode oferecer mais oportunidades de desempenho superior se utilizada corretamente.

O palestrante compara investidores em valor e estrategistas quantitativos, observando que, embora os investidores em valor tenham uma menor probabilidade de sucesso, eles têm o potencial de gerar retornos substanciais. Os estrategistas quânticos, por outro lado, têm maior probabilidade de sucesso, mas geram retornos relativamente mais baixos, porém consistentes. A lei fundamental do investimento descreve o índice de informação como o índice de superdesempenho dividido pelo risco da carteira, igualando-o ao coeficiente de informação ou nível de habilidade multiplicado pela raiz quadrada de n, onde n representa o número de apostas independentes que podem ser feitas. Os investidores quantitativos podem ter um número maior de n, permitindo-lhes otimizar uma carteira de fatores. Ghosh também elabora outros métodos de otimização, como otimizações KD ou otimizações de paridade de risco, que visam maximizar a riqueza terminal em vários períodos, acumulando riqueza.

Prodipta Ghosh passa a discutir a estratégia de portfólio da Kelly, enfatizando seu domínio no longo prazo devido ao seu foco na maximização da riqueza final. No entanto, ele adverte que a estratégia de Kelly também é a mais agressiva em termos de risco e pode não ser adequada para aposentados ou indivíduos que não podem arcar com riscos de curto prazo. Ele explica ainda a estratégia de paridade de risco, que visa equalizar as contribuições de risco individuais e garantir que a soma dos riscos de todos os ativos permaneça equilibrada. Embora não haja justificativa teórica para essa abordagem, ela é considerada uma alocação de risco sensata. Ao decidir entre a estratégia de Kelly, paridade de risco e otimização de média-variância, deve-se considerar seu apetite de risco e a precisão de sua modelagem, que pode ser aprimorada por meio da modelagem de fatores. Em última análise, essas estratégias giram em torno do equilíbrio entre risco e retorno, com forte ênfase na medição e gerenciamento de risco de forma eficaz.

Prodipta Ghosh passa a discutir o tema das estratégias alfa e como combiná-las para criar um portfólio completo. Embora as otimizações de média-variância possam ser empregadas para estratégias alfa, elas encontram um problema em que toda a alocação no portfólio vai para uma única e melhor estratégia com base apenas em dados históricos. Para lidar com essa preocupação, Ghosh introduz o conceito de estratégias dentro da amostra, em que todas as estratégias recebem um voto igual. Outra abordagem é o portfólio de mudança de arrependimento, que emprega técnicas de análise de mudança como modelos ocultos de Markov ou análise de ponto de mudança para alocar capital entre diferentes estratégias alfa. Uma técnica notável é a abordagem sem arrependimento, que aborda o problema de exploração versus exploração explorando sistematicamente cada estratégia alfa para identificar aquela com maior potencial antes de investir pesadamente nela.

Prodipta Ghosh destaca que existem vários recursos disponíveis para uma exploração mais aprofundada da otimização de portfólio, incluindo plataformas como Wikipedia e o curso lançado recentemente pela Contra sobre gerenciamento quantitativo de portfólio. Ele menciona várias oportunidades de aprendizado e crescimento no setor por meio dos programas da Contra, como o portal interativo de aprendizado individualizado e o Blue Shift, que oferece backtesting gratuito. Ghosh expressa sua gratidão ao público por sua participação e os encoraja a visitar o site da Contra para obter informações e recursos adicionais.

  • 00:00:00 Prodipta Ghosh, Vice-Presidente de Gestão Quantitativa de Portfólio, explica que não existe uma estratégia única para negociação de ações, pois existem incertezas nos mercados financeiros, o mercado muda ao longo do tempo e os indivíduos têm diferentes objetivos e apetites de risco. Ele aponta que mesmo com uma visão ou modelo perfeito do mundo, não seria possível encontrar respostas para o tipo de perguntas feitas pelos traders, pois cada um tem um contexto diferente. Portanto, não existe uma estratégia perfeita para ninguém no mundo.

  • 00:05:00 Prodipta Ghosh discute quatro estratégias quantitativas de gerenciamento de portfólio, incluindo o uso de Bandas de Bollinger, uma estratégia simples de cruzamento de média móvel, um padrão de velas doji e o Índice de Força Relativa (RSI). Embora, em teoria, a melhor estratégia seja aquela com alto índice de Sharpe, o desempenho passado nem sempre é garantia de resultados futuros. Portanto, construir um portfólio de diferentes estratégias e ativos é crucial para evitar grandes perdas e mitigar riscos. Ao alocar capital igualmente para todas as quatro estratégias, Ghosh demonstra como um portfólio diversificado pode evitar perdas significativas diante da volatilidade do mercado.

  • 00:10:00 Prodipta Ghosh explica os fundamentos do gerenciamento de portfólio e como ele difere de investir em uma única ação. O gerenciamento de portfólio envolve a criação de uma estratégia para várias estratégias ou ativos, que se preocupa com riscos e incertezas, a passagem do tempo e o contexto. O valor de uma estratégia é determinado pelos retornos subjacentes multiplicados pelas posições. Por outro lado, o valor do portfólio é o fluxo subjacente ponderado de retornos. O gerenciamento de portfólio resolve um problema matemático definindo uma função U, que é uma função do valor P do portfólio, e encontrando os pesos W que satisfazem a condição de maximização para maximizar U. Dependendo de como U é definido e como a otimização é feita, há pode haver uma variedade de possibilidades para estratégias de otimização, como otimização de média-variância, otimização de Kelly e otimização de penalidade de risco.

  • 00:15:00 O palestrante discute estratégias quantitativas de gerenciamento de portfólio e como os problemas de otimização funcionam. Ele fala sobre os tipos de restrições que podem ser especificadas em um problema de otimização, como limitar o alcance de um portfólio e os diferentes tipos de portfólios que podem ser construídos, incluindo aqueles baseados em estratégias alfa, portfólios de fatores ou uma coleção de ações. O objetivo é definir uma condição de maximização que resulte em uma carteira com valor máximo ou função do valor da carteira. O palestrante também aborda a questão de saber se um portfólio igualmente ponderado faz sentido, o que depende de circunstâncias específicas e pode ser pensado como um problema de otimização com penalidade no quadrado dos erros.

  • 00:20:00 Prodipta Ghosh discute o conceito de risco e utilidade na gestão de portfólio. Ele explica que, embora possa parecer simples estimar retornos e riscos esperados, na realidade, pode ser bastante complicado. Ele apresenta o conceito de teoria moderna de portfólio e utilidade quadrática, que visam maximizar os retornos e minimizar os riscos. Ele também usa o exemplo do paradoxo de Saint Pittsburgh para ilustrar como os humanos nem sempre tomam decisões com base em médias matemáticas.

  • 00:25:00 Prodipta Ghosh explica a relação entre utilidade e risco e como eles levam a um bom portfólio. Ele demonstra o conceito de prêmio de risco, que mede a diferença entre o pagamento ou retorno esperado de um investimento arriscado e o valor que uma pessoa estaria disposta a pagar por um determinado pagamento. Ele também explica que uma função de utilidade é uma função matemática de riqueza que nos diz quanto vale um dólar extra e ajuda a determinar o valor a pagar. Ao entender a relação entre utilidade e risco, os investidores podem construir um bom portfólio que equilibra risco e retorno.

  • 00:30:00 O palestrante discute o conceito de aversão ao risco no investimento, o que significa que os investidores preferem determinados investimentos em detrimento dos flutuantes. A aversão ao risco é uma suposição comum na gestão quantitativa de carteiras, e o prêmio de risco é o valor de uma letra grega chamada Pi, que representa o valor que um investidor está disposto a pagar para aceitar um retorno flutuante de média zero. O palestrante então explica a função de utilidade quadrática e como ela leva à otimização da média e variância de um portfólio. Construir uma carteira com base na Teoria Moderna da Carteira envolve encontrar um equilíbrio entre a média e a variância da carteira.

  • 00:35:00 Prodipta Ghosh explica o processo de otimização da utilidade esperada do portfólio equilibrando a média e a variância. Ele usa o Excel para simular retornos de diferentes ativos e calcular a matriz de covariância, que é então usada para calcular retornos, variância e risco do portfólio com base em diferentes pesos. Variando os pesos e calculando o retorno e a variância do portfólio para todos os casos possíveis, um problema de otimização pode ser resolvido. O gráfico resultante mostra a proporção de Sharpe, que é a proporção de retorno versus risco, para cada conjunto de pesos.

  • 00:40:00 Prodipta Ghosh explica o conceito de fronteiras eficientes na teoria moderna de carteiras. Ele discute como a fronteira eficiente é a área onde um portfólio deve estar para obter retornos máximos com base em uma determinada tolerância ao risco. Ele explica ainda que se um ativo de risco de empréstimo for adicionado, como um ativo livre de risco, o conceito se torna mais interessante, e o índice de Sharpe mais alto é retirado da carteira tangente. Ele também descreve a linha que conecta zero ao portfólio tangente como a linha de mercado e explica como se torna uma escolha entre comprar o portfólio de mercado e comprar um ativo sem risco e definir as alocações.

  • 00:45:00 Prodipta Ghosh explica o Capital Asset Pricing Model (CAPM). O CAPM muda o conceito de risco em finanças, medindo o risco como uma contribuição para o portfólio de mercado, em vez de um risco independente. Através do uso de equações matemáticas, o CAPM captura a taxa de retorno exigida para um ativo com risco, que é a taxa livre de risco mais uma contribuição para a carteira de mercado em termos de risco multiplicada pela diferença entre o retorno de mercado e o retorno livre de risco retornar. Este conceito fornece uma base teórica para o investimento em valor. Por meio de vários modelos, incluindo fluxo de caixa descontado e modelos de compressão, os investidores estimam um preço justo usando o CAPM e capitalizam sua melhor compreensão do risco idiossincrático.

  • 00:50:00 Prodipta Ghosh discute várias estratégias de gerenciamento de portfólio, com foco no investimento em fatores. O investimento em fatores envolve a consideração de vários fatores de risco, em vez de apenas o risco de mercado na criação de um portfólio. Ghosh explica que cada fator tem um prêmio associado a ele e isso leva a diferentes estilos de investimento, incluindo alocação de fator, tempo de fator ou simplesmente voltar ao investimento em valor e seleção de ações se tudo for descompactado. O investimento em fatores ajuda a explicar o risco idiossincrático e fornece uma nova interpretação de alfa e beta, com alfa e beta tornando-se o alfa total se o delta F na equação for invariante no tempo e positivo junto com o beta.

  • 00:55:00 Prodipta Ghosh discute as principais diferenças entre investimento em valor e investimento em fator, e qual faz mais sentido para um comerciante de varejo. Ghosh observa que o investimento em valor requer um alto nível de pesquisa em empresas individuais e geralmente envolve uma concentração no risco idiossincrático, que pode não ser adequado para comerciantes de varejo de pequena escala. Por outro lado, o investimento em fatores envolve pesquisar os fatores de risco do mercado e procurá-los sistematicamente em busca de fatores para alocar investimentos com base no retorno esperado. Ghosh também aborda brevemente as diferenças entre pesquisa discricionária e quantitativa, afirmando que a gestão quantitativa pode oferecer mais oportunidades de desempenho superior se usada corretamente.

  • 01:00:00 Prodipta Ghosh explica a diferença entre investidores em valor e estrategistas quantitativos. Enquanto os investidores de valor têm uma baixa probabilidade de sucesso, mas podem gerar multi-baggers, os estrategistas quant têm uma alta probabilidade de sucesso, mas geram retornos relativamente mais baixos, porém consistentes. A lei fundamental do investimento descreve a taxa de informação como uma taxa de superdesempenho dividida pelo risco da carteira, que equivale ao coeficiente de informação ou nível de habilidade multiplicado pela raiz quadrada de n, onde n é o número de apostas independentes que podem ser feitas. Como resultado, um investidor quantitativo pode ter um número maior de n, e é por isso que pode otimizar um portfólio de fábrica. Além disso, Ghosh explica outros métodos de otimização, como otimizações KD ou otimizações de paridade de risco, que tentam maximizar a riqueza terminal em vários períodos acumulando riqueza.

  • 01:05:00 O palestrante explica a estratégia do portfólio Kelly e seu domínio no longo prazo devido ao seu foco na maximização da riqueza final. No entanto, também é o mais agressivo em termos de risco, o que significa que não é adequado para aposentados ou pessoas que não podem arcar com riscos de curto prazo. O palestrante também discute a estratégia de paridade de risco que iguala as contribuições de risco individuais e exige que a soma do risco de todos os ativos seja igual. Não há justificativa teórica para isso, mas é considerada uma alocação de risco sensata. Ao decidir entre Kelly, paridade de risco e otimização de média-variância, deve-se considerar seu apetite de risco e a precisão de sua modelagem, que pode ser melhorada usando modelagem de fator. Essas estratégias tratam de equilibrar riscos e retornos, com foco na medição e gerenciamento de riscos sendo mais críticos.

  • 01:10:00 O palestrante discute o tema das estratégias alfa e como combiná-las para criar um bom portfólio. Embora as otimizações de média-variância possam ser usadas para estratégias alfa, há um problema em que toda a alocação no portfólio vai para uma única e melhor estratégia, baseada apenas em dados históricos. Uma maneira de resolver esse problema é usar estratégias dentro da amostra, em que todas as estratégias têm voto igual. Outra abordagem é o portfólio de mudança de arrependimento, que usa técnicas de análise de mudança, como modelos ocultos de Markov ou análise de ponto de mudança para alocar capital entre diferentes estratégias alfa. Uma técnica específica é chamada de sem arrependimento, que é um problema de exploração versus exploração, em que o objetivo é explorar cada estratégia alfa e descobrir qual delas tem mais potencial antes de se aprofundar nela.

  • 01:15:00 O palestrante discute várias abordagens para otimização de portfólio, incluindo o uso de ponderação exponencial e uma taxa de aprendizado para equilibrar exploração e exploração. Ele também menciona que há muitos recursos disponíveis sobre o assunto, incluindo a Wikipedia e o curso lançado recentemente pela Contra sobre gerenciamento quantitativo de portfólio. Além disso, o palestrante fala sobre várias oportunidades de aprendizado e crescimento no setor por meio dos programas da Contra, incluindo seu portal interativo de aprendizado individualizado e o blue shift, que oferece backtesting gratuito. Ele finaliza agradecendo a participação do público e incentivando-os a visitar o site do Contra para mais informações.
 

Negociação Algorítmica | É certo para você e como começar



Negociação Algorítmica | É certo para você e como começar

Senhoras e senhores, gostaria de apresentar Nathan, o cofundador da Elle Foam Advisory, que compartilhará informações valiosas sobre o fascinante mundo da negociação algorítmica. Nathan começa sua apresentação definindo negociação algorítmica e destacando sua importância no setor financeiro. Ele explica que a negociação algorítmica envolve o uso de algoritmos de computador para executar negociações automaticamente e desempenha um papel crucial nos mercados modernos.

Nathan passa a discutir a natureza evolutiva da negociação algorítmica e como sua definição pode variar com base na localização geográfica e nas estruturas regulatórias. Nos Estados Unidos, qualquer forma de negociação sistemática se enquadra na negociação algorítmica. No entanto, em outras regiões, é especificamente considerado negociação algorítmica quando algoritmos de computador determinam autonomamente os parâmetros da ordem. Esta distinção enfatiza as diversas abordagens e perspectivas dentro do campo.

O palestrante então lança luz sobre as tendências atuais da indústria em negociação algorítmica. Ele destaca a prevalência crescente de traders DIY (Do-It-Yourself) que utilizam estratégias algorítmicas. Além disso, Nathan apresenta dados que demonstram o crescimento significativo da participação de mercado da negociação algorítmica na Ásia, nos Estados Unidos e na Índia. Apesar desse crescimento, ele reconhece que a participação do varejo no comércio algorítmico continua relativamente baixa e promete explicar esse fenômeno nos próximos slides.

Seguindo em frente, Nathan explora o impacto da negociação algorítmica no mercado de trabalho. Ele explica como a automação está substituindo os operadores humanos, e as empresas agora procuram codificadores para desenvolver estratégias de negociação sofisticadas e aproveitar o poder das máquinas. O palestrante enfatiza quatro vantagens principais da negociação automática em relação à negociação humana: tempo de atividade, tempo de reação, escalabilidade e capacidade de aprender e melhorar. As máquinas podem monitorar continuamente os riscos, executar negociações prontamente, adaptar-se às mudanças do mercado com eficiência e aprender com suas experiências com mais eficiência do que os operadores humanos.

Abordando a baixa participação do varejo no comércio algorítmico, Nathan descreve vários motivos para essa discrepância. Em primeiro lugar, a negociação algorítmica requer uma combinação de conhecimento técnico, incluindo codificação e estatística, com uma sólida compreensão das finanças e da dinâmica do mercado. Em segundo lugar, o acesso a dados de mercado relevantes é crucial para backtesting e desenvolvimento de estratégias robustas. Por fim, a transição da negociação manual para negociação algorítmica pode ser desafiadora sem a orientação de profissionais experientes do mercado que possuam experiência prática no campo. Apesar desses obstáculos, Nathan destaca os benefícios inegáveis da negociação algorítmica, como escalabilidade, gerenciamento de risco eficaz e eliminação do erro humano, tornando-a uma opção atraente para os traders.

Nathan então apresenta ao público o curso EPAct oferecido pela Point Density. Ele discute a dificuldade de encontrar uma plataforma que forneça suporte abrangente para negociação algorítmica, abrangendo orientação de profissionais do mercado, conhecimento técnico e conteúdo atualizado. O curso EPAct visa preencher essa lacuna, oferecendo conteúdo rico criado por profissionais da indústria que é continuamente atualizado para refletir as últimas tendências. O curso também oferece suporte dedicado do corpo docente e adota uma abordagem orientada para o mercado, tornando-o um recurso ideal tanto para iniciantes que se aventuram na negociação algorítmica quanto para aqueles que desejam avançar em suas carreiras nesse campo.

Elaborando ainda mais o conteúdo do curso, Nathan descreve os módulos abordados no programa de negociação algorítmica. O curso começa com um módulo básico que estabelece uma base com estatística básica, teoria da probabilidade e aplicação de modelos financeiros. Em seguida, ele progride para cobrir os fundamentos do Python e estatísticas avançadas, incluindo modelos Gaussianos usados na compreensão de estratégias complexas. O curso também inclui sessões sobre construção de currículo, criação de uma mesa de negociação pessoal e realização de entrevistas simuladas para colocações em mais de 100 empresas parceiras. Ao longo do curso, o instrutor oferece assistência pessoal aos alunos, garantindo que quaisquer dúvidas ou dificuldades sejam prontamente esclarecidas. Além disso, ingressar no curso EPAct concede benefícios exclusivos, incluindo acesso a eventos e recursos da comunidade, que serão discutidos com mais detalhes nas próximas seções.

Continuando sua apresentação, Nathan mergulha nos detalhes de cada módulo dentro do curso de negociação algorítmica. O curso começa com o módulo de blocos de construção, estabelecendo as bases para a compreensão dos efeitos de equidade e estratégias futuras. Os alunos se envolvem em exercícios práticos para criar várias estratégias de negociação. O programa então se aprofunda na microestrutura e implementações do mercado, explorando as complexidades do backtesting de ideias em dados históricos usando diferentes APIs e corretores. O aprendizado de máquina também é introduzido como um campo emergente na negociação algorítmica. A importância da negociação e das operações frontais é enfatizada, com um módulo dedicado focado na configuração da infraestrutura de negociação algorítmica. O curso também abrange negociação de opções, otimização de portfólio e gerenciamento de risco. Por fim, os alunos realizam um projeto e, ao serem aprovados no exame, recebem um certificado verificado, validando sua experiência em negociação algorítmica.

Nathan então muda a atenção do público para o programa Algorithmic Trading oferecido pela QuantInsti. Ele destaca que, após a conclusão do programa, os participantes recebem um certificado de impacto verificado após concluir um curso abrangente de mais de 300 horas. O corpo docente inclui profissionais renomados do setor que são acessíveis e fornecem experiência prática em diferentes classes e funções de ativos. O curso abrange vários aspectos, desde a preparação do currículo até o acesso a APIs e redes de corretores para uma implementação perfeita. Além disso, a equipe QuantInsti auxilia os participantes com oportunidades de arrecadação de fundos, tornando-a uma escolha ideal para quem busca uma educação abrangente em negociação algorítmica.

Após a discussão de Nathan, Nadine sobe ao palco para esclarecer o público sobre os benefícios de fazer parte da comunidade EPAT. Ela enfatiza a orientação vitalícia disponível para os membros da comunidade, bem como a oportunidade de se conectar com colegas de mais de 165 países. Eventos e sessões exclusivas, acesso gratuito e subsidiado a corretores e acesso a ferramentas de backtesting como o BlueShift estão entre os privilégios da comunidade. Além disso, o EPAT adiciona uma dimensão quantitativa fundamental ao conjunto de habilidades existente de um indivíduo, aprimorando seu perfil profissional. Notavelmente, o programa EPAT é reconhecido pelo esquema de treinamento financeiro, e os profissionais que trabalham em Cingapura podem se beneficiar de um reembolso de 2.000 dólares cingapurianos.

Concluindo a apresentação, Ben Magnano compartilha sua jornada pessoal na negociação algorítmica. Ele relata suas primeiras lutas com o day trading em 2005 até encontrar a QuantInsti, onde recebeu treinamento rigoroso em fundamentos quantitativos e algorítmicos de trading. Ben destaca a importância de aprender Python e ser capaz de escrever seus próprios programas, eventualmente ganhando seu certificado como comerciante quantitativo. Essa conquista abriu portas para ele, levando a uma oportunidade como consultor de pesquisa na WorldQuant, onde ele continua a refinar suas habilidades de codificação e se manter atualizado com as últimas tendências do setor, como inteligência artificial.

Nos momentos finais do vídeo, o palestrante reconhece o tremendo crescimento da negociação algorítmica e como ela é cada vez mais preferida pelos traders que buscam minimizar a necessidade de monitoramento constante. O palestrante expressa gratidão pela análise excepcional fornecida pelos apresentadores, reconhecendo os valiosos insights compartilhados ao longo da apresentação. No final do vídeo, o palestrante resume o programa ePAD, projetado para equipar os participantes com habilidades prontas para o setor no domínio quantitativo e FinTech, garantindo que estejam bem preparados para prosperar no campo da negociação algorítmica.

  • 00:00:00 Nesta seção, o apresentador apresenta Nathan, o cofundador da Elle Foam Advisory, que discutirá negociação algorítmica. Nathan começa definindo o que é negociação algorítmica e por que é importante. Ele também fala sobre as tendências da indústria e as perspectivas de carreira na negociação algorítmica. Finalmente, Nathan discute como o programa Quantity pode ajudar as pessoas a começar ou construir uma carreira na negociação algorítmica. Ele conclui garantindo ao público que responderá às suas perguntas durante a apresentação.

  • 00:05:00 Nesta seção, o palestrante discute a definição de negociação algorítmica e como ela difere com base na geografia e nos regulamentos. Nos EUA, qualquer negociação sistemática é considerada negociação algorítmica, enquanto em outras regiões, só pode ser considerada algorítmica se um computador estiver determinando automaticamente os parâmetros da ordem. O palestrante observa que a negociação algorítmica está evoluindo rapidamente e contribuiu para um aumento nas negociações conduzidas por comerciantes DIY. O palestrante também apresenta dados que mostram que a participação no mercado de negociação algorítmica cresceu significativamente na Ásia, nos EUA e na Índia, mas a participação do varejo na negociação algorítmica permanece baixa. O palestrante promete explicar por que isso acontece nos próximos slides.

  • 00:10:00 Nesta seção, o palestrante discute a ascensão da negociação algorítmica e como ela está impactando o mercado de trabalho. Ele explica como a negociação algorítmica está sendo automatizada e substituindo os operadores humanos, e como as empresas agora estão contratando codificadores para desenvolver suas estratégias e permitir que as máquinas negociem. O palestrante destaca quatro vantagens principais da negociação automática em relação à negociação humana, como tempo de atividade, tempo de reação, escalabilidade e capacidade de aprender e melhorar. Ele argumenta que as máquinas podem monitorar o risco, realizar negociações e reagir às mudanças do mercado com mais rapidez e eficiência do que os operadores humanos.

  • 00:15:00 Nesta seção, o palestrante discute as razões pelas quais a participação do varejo no comércio algorítmico ainda é baixa, apesar de sua crescente popularidade e benefícios. Em primeiro lugar, a negociação algorítmica requer conhecimento técnico, como codificação e estatísticas, além de finanças e compreensão do mercado. Em segundo lugar, é crucial acessar dados de mercado relevantes para backtesting e desenvolver estratégias. Por fim, a transição da negociação manual para a negociação algorítmica pode ser difícil sem a orientação de um profissional do mercado com experiência na área. No entanto, os benefícios da negociação algorítmica, como escalabilidade, gerenciamento de risco e eliminação de erro humano, a tornam uma opção atraente para os traders.

  • 00:20:00 Nesta seção, o palestrante discute os benefícios de usar o curso EPAct da Point Densitiy para os interessados em negociação algorítmica. Eles destacam a dificuldade de encontrar uma plataforma que combine os componentes necessários para negociação algorítmica, como orientação de profissionais do mercado, conhecimento técnico e conteúdo atualizado. O curso EPAct visa preencher essa lacuna, fornecendo conteúdo rico construído por profissionais do mercado e constantemente atualizado para refletir as tendências atuais. Além disso, o curso oferece suporte dedicado do corpo docente e uma abordagem voltada para o mercado, tornando-o um ótimo recurso para quem está iniciando na negociação algorítmica ou procura construir uma carreira na área.

  • 00:25:00 Nesta seção, o palestrante discute um curso sobre negociação algorítmica e o conteúdo abordado no curso. O curso começa com um módulo básico onde os alunos de várias formações podem criar uma base com estatística básica, teoria da probabilidade e aplicação de modelos financeiros. O curso segue para o básico do Python e estatísticas avançadas, como modelos gaussianos, que são usados para entender estratégias mais complexas. O curso também inclui a criação de currículos, a criação de sua própria mesa de negociação e a realização de entrevistas simuladas para colocações em mais de 100 empresas parceiras. O instrutor do curso auxilia pessoalmente os alunos com quaisquer dúvidas ou dificuldades, garantindo que as dúvidas sejam esclarecidas. O palestrante também menciona os benefícios exclusivos de ingressar na comunidade global de negociação algorítmica, como eventos e recursos da comunidade, que serão discutidos em seções posteriores.

  • 00:30:00 Nesta seção, o palestrante discute os diferentes módulos que compõem o curso de negociação algorítmica. O curso começa com blocos de construção e segue para efeitos de equidade e estratégias futuras, onde os alunos trabalharão na criação de diferentes estratégias em um ambiente prático. A microestrutura e as implementações do mercado também são discutidas, seguidas por um módulo sobre ideias de back-testing em dados históricos usando diferentes APIs e corretores. O aprendizado de máquina também é explorado em um novo campo. A negociação e as operações frontais são enfatizadas como importantes, com um módulo que cobre como a infraestrutura de negociação algorítmica é configurada. O curso também inclui um módulo sobre negociação de opções, otimização de portfólio e gerenciamento de risco. Por fim, os alunos trabalham em um projeto e, ao serem aprovados no exame, recebem um certificado verificado.

  • 00:35:00 Nesta seção, o palestrante discute o programa Algorithmic Trading oferecido pela QuantInsti, que fornece um certificado de impacto verificado após a conclusão de um curso de mais de 300 horas. O corpo docente inclui nomes bem conhecidos do setor, que são acessíveis e fornecem experiência prática em diferentes classes e funções de ativos. O curso abrange tudo, desde a preparação do currículo até o acesso a APIs e redes de corretores para fácil implementação. Além disso, a equipe QuantInsti auxilia na captação de recursos, tornando-o um curso ideal para os interessados em aprender negociação algorítmica.

  • 00:40:00 Nesta seção, Nadine discute os benefícios de fazer parte da comunidade EPAT, que inclui orientação vitalícia, capacidade de se conectar com alunos de mais de 165 países, eventos e sessões exclusivas, acesso gratuito e subsidiado a corretores, acesso a ferramentas de backtesting, como BlueShift, e acesso vitalício ao conteúdo mais atualizado. Ele também adiciona uma dimensão quantitativa fundamental ao seu conjunto de habilidades existente. O EPAT é reconhecido pelo esquema de treinamento financeiro e oferece um benefício de 2.000 dólares cingapurianos como reembolso para profissionais que trabalham em Cingapura.

  • 00:45:00 Nesta seção, Ben Magnano discute sua jornada com a negociação algorítmica, começando em 2005, quando ele estava lutando com a negociação diária. Ele finalmente encontrou o QuantInsti, onde foi apresentado aos princípios e fundamentos da negociação quantitativa e algorítmica por meio de treinamento e ensinamentos rigorosos. Ele aprendeu python e foi capaz de escrever seu próprio programa, recebendo posteriormente seu certificado como comerciante quantitativo. Isso levou a uma oportunidade na WorldQuant como consultor de pesquisa, e ele ainda trabalha com eles hoje, sempre procurando melhorar seu estilo de codificação e se manter atualizado com as últimas tendências do setor, como inteligência artificial.

  • 00:50:00 Nesta seção, o palestrante fala sobre o tremendo crescimento no campo da negociação algorítmica e como ela está se tornando cada vez mais o método preferido dos traders que não querem passar o dia cuidando de suas negociações. O palestrante também dá crédito aos analistas quantitativos por trazerem essa visão à realidade e expressa sua gratidão pela excelente análise fornecida pelos apresentadores. O vídeo termina com um breve resumo do ePAD, um programa desenvolvido para preparar os participantes para a indústria no domínio quant e FinTech.
 

Modelos de risco para negociação de Quant por Zura Kakushadze - 16 de maio de 2019



Modelos de risco para negociação de Quant por Zura Kakushadze - 16 de maio de 2019

Zura Kakushadze, em sua discussão, enfoca os desafios associados ao cálculo do inverso da matriz de covariância para otimizar portfólios de 2.000 ações dos EUA. Ele destaca que quando o número de observações na série temporal dos retornos é menor que o número de ações da carteira, a matriz de covariância amostral torna-se singular e não pode ser invertida. Mesmo se fosse não singular, os elementos fora da diagonal que representam as correlações seriam altamente instáveis fora da amostra, a menos que houvesse um número significativamente maior de observações em comparação com os estoques, o que normalmente não é o caso em aplicações da vida real.

Kakushadze explica que os modelos de risco para estratégias de negociação quantitativa diferem dos modelos de risco tradicionais devido a períodos de retenção mais curtos e alfas efêmeros. Longos períodos de retrospectiva não são desejáveis para essas estratégias, e métodos alternativos para calcular a matriz de covariância são necessários. Uma abordagem comum é usar um modelo de fator que decompõe o risco em risco de fator e risco específico. A vantagem do modelo de fator é que ele representa a grande matriz de covariância por uma matriz de covariância de fator muito menor, tornando-o computacionalmente eficiente. No entanto, Kakushadze aponta que ainda existem detalhes intrincados que precisam ser abordados no modelo de fator.

O palestrante discute ainda os desafios associados ao cálculo da volatilidade para cada ação e sugere focar na matriz de correlação de amostra em vez da matriz de covariância de amostra. A matriz de correlação de amostra é preferida devido a questões como singularidade, instabilidade e outras questões associadas à matriz de covariância. Kakushadze propõe fatorar variâncias distorcidas e usar um modelo de fator para a matriz de correlação em vez da matriz de covariância. Surge a questão de determinar os fatores de risco, e duas possibilidades são sugeridas: usar componentes principais da matriz de correlação da amostra ou empregar fatores de estilo, como tamanho, momento e volatilidade.

Diferentes tipos de fatores de risco adequados para negociação quantitativa são explorados, incluindo fatores de estilo e classificações da indústria. O palestrante destaca a importância de usar fatores de horizonte curto que são relevantes para a negociação e excluir fatores de horizonte mais longo. O risco de neutralizar inadvertidamente os fatores alfa desejáveis no modelo de risco também é discutido, enfatizando a necessidade de seleção cuidadosa e ponderação dos fatores de risco.

Kakushadze explica que modelos de risco padronizados adquiridos de fornecedores são incapazes de remover fatores de risco indesejáveis ou cobrir todas as direções relevantes do espaço de risco de um trader. Portanto, o palestrante sugere a construção de um modelo de risco personalizado do zero. Uma abordagem é usar modelos estatísticos de risco, que envolvem obter uma série temporal de retornos com um período de retrospectiva limitado e criar carregamentos de fatores com base nos principais componentes da matriz de correlação de amostra.

O conceito de classificação efetiva é introduzido como uma forma de determinar o número de componentes principais a serem usados como fatores de risco. A classificação efetiva mede a dimensionalidade efetiva de uma matriz e pode ser calculada usando a entropia espectral. No entanto, os modelos estatísticos de risco têm limitações quanto ao número de fatores de risco, pois são limitados pelo número de observações, resultando em uma cobertura limitada do espaço de risco. A instabilidade de componentes principais mais altos fora da amostra também é uma preocupação.

A instabilidade de correlações aos pares fora da amostra e elementos fora da diagonal na matriz de correlação é discutida. Kakushadze explica que os componentes principais mais altos calculados a partir de uma matriz de correlação instável são freqüentemente atualizados e instáveis, enquanto o primeiro componente principal tende a ser relativamente estável. O palestrante também se aprofunda na definição de fatores de estilo adequados para estratégias de holding mais curtas e sugere a eliminação de correlações estatisticamente insignificantes, como ações em circulação, de estratégias de negociação intradiárias.

Quatro fatores comuns usados em modelos de negociação quant de horizonte curto são discutidos: direção (momentum), volatilidade, liquidez e preço. Kakushadze explica como cada fator é definido e como os retornos dos fatores podem ser calculados usando regressão transversal. O cálculo do índice de Sharpe anualizado para cada retorno de fator é enfatizado na determinação de sua relevância estatística e adequação para estratégias de negociação.

O palestrante passa a testar e verificar as cargas fatoriais e a eficácia dos fatores de estilo na modelagem de risco. O backtesting em negociações intradiárias ou negociações alfa mais curtas em resíduos após a fatoração de retornos históricos usando as cargas fatoriais é sugerido como uma forma de testar as cargas fatoriais. O valor de grandes setores em comparação com fatores de estilo é destacado, mesmo no nível menos granular. A construção de modelos de risco com base em setores ou subsetores usando classificações fundamentais do setor é recomendada, pois cobrem uma parte maior do espaço de risco. A estabilidade do primeiro componente principal fora da amostra afeta a eficácia desses modelos de risco.

A construção de uma matriz de cargas fatoriais para um grande número de sub-indústrias é discutida, e a classificação hierárquica da indústria é proposta como solução. Essa abordagem envolve modelar subindústrias primeiro e, em seguida, usar o próximo nível granular de indústrias para modelar os fatores de risco, continuando até que o problema seja reduzido a uma matriz menor que possa ser calculada adequadamente.

O processo de redução de problemas passo a passo para calcular modelos de risco para negociação quant é explicado. Calculando inicialmente uma matriz de cargas fatoriais de tamanho menor, como 10 por 10, para a matriz de covariância da amostra, Kakushadze constrói um modelo de um fator para o fator restante, que é o mercado. Isso reduz o problema de uma matriz grande para uma menor. A inclusão de fatores de estilo nesta construção é sugerida, mas sua contribuição pode ser limitada em comparação com um número maior de fatores de risco de vários setores. Fatores de estilo podem não ser proxies ideais para modelar correlações entre ações.

A importância de incluir uma interceptação no processo de normalização dos fatores de estilo é explicada. O palestrante esclarece que o logaritmo do preço, normalmente utilizado como fator de estilo, é na verdade o logaritmo do preço dividido por um fator de normalização. O fator de normalização é empírico e pode ser personalizado com base na preferência do trader. Enquanto os fatores baseados na indústria tendem a ser proxies confiáveis para modelar correlações, as combinações bilineares de fatores de estilo são consideradas proxies ruins. Portanto, os comerciantes são aconselhados a se concentrar em fatores baseados na indústria e personalizar seus modelos de acordo com seu estilo de negociação e alfas comerciais quantitativos.

O palestrante apresenta o conceito de heterose, que combina ideias poderosas, como modelos de fatores, classificações da indústria e componentes principais em uma construção que pode ser altamente eficaz na modelagem de risco. Técnicas de agrupamento também são discutidas como uma forma de construir fatores de risco usando esquemas de agrupamento de vários níveis que podem substituir classificações fundamentais da indústria. No entanto, algoritmos de agrupamento não determinísticos podem produzir agrupamentos diferentes a cada vez que são executados, levando a ruídos no sistema. Para reduzir o ruído, um grande número de agrupamentos pode ser calculado ou outras técnicas como redução de dimensionalidade ou análise de componentes principais podem ser empregadas.

Diferentes abordagens para agrupamento em modelos de risco de negociação quant são exploradas. O palestrante explica que, embora o agrupamento k-means possa ser não determinístico, alternativas determinísticas, como o agrupamento hierárquico, podem ser subjetivas e mais lentas. O palestrante sugere o uso dos próprios modelos de risco para agregação, em vez de depender apenas do agrupamento. No caso do k-means, a natureza não determinística decorre da inicialização dos centros do cluster, mas nem sempre é necessário encontrar o mínimo global. Para melhorar a abordagem ingênua de usar retornos históricos, é proposta a normalização dos retornos contra as volatilidades históricas.

A normalização de cluster e o cluster multinível são discutidos para negociação de quant. Recomenda-se que o clustering seja feito dividindo os retornos por variância em vez de normalizar os retornos com dois desvios padrão para otimizar portfólios e melhorar o desempenho. Duas abordagens para agrupamento multinível são apresentadas: bottom-up, onde o nível mais granular é criado primeiro, seguido por agrupamentos de clusters sucessivamente, e top-down, onde o nível menos granular é criado primeiro, seguido por agrupamento de tickers sucessivamente. Algoritmos não determinísticos, como algoritmos hierárquicos, não são vantajosos em termos de desempenho em comparação com algoritmos determinísticos, e o palestrante sugere o uso de técnicas de agrupamento e agregação.

O palestrante aborda a questão de determinar o número de clusters em modelos de risco baseados em clustering. Métodos tradicionais, como o método do cotovelo ou análise de silhueta, são mencionados, mas nem sempre fornecem resultados confiáveis. Em vez disso, o palestrante sugere o uso da análise de estabilidade, que envolve a criação de várias soluções de agrupamento e a medição da estabilidade dos agrupamentos resultantes. A estabilidade pode ser avaliada usando técnicas como estabilidade de par de clusters ou estabilidade de bootstrap.

Kakushadze enfatiza a importância da estabilidade em modelos de risco baseados em clustering, pois clusters instáveis podem levar a estimativas de risco não confiáveis. Ele sugere que clusters estáveis devem ser usados para modelagem de risco, enquanto clusters instáveis devem ser descartados ou combinados com outros clusters para melhorar a estabilidade. O palestrante também menciona o uso de técnicas de aprendizado de máquina, como agrupamento hierárquico usando algoritmos de aprendizado de máquina, como uma alternativa aos métodos tradicionais de agrupamento.

A discussão passa então para a construção de modelos de risco com base nos clusters selecionados. O palestrante propõe usar a matriz de correlação amostral dentro de cada cluster para estimar as cargas fatoriais. Ao decompor a matriz de correlação amostral de cada cluster em seus autovalores e autovetores, as cargas fatoriais podem ser obtidas. A matriz de cargas fatoriais para todo o portfólio pode então ser construída combinando as cargas fatoriais de cada cluster.

O palestrante destaca a importância de normalizar adequadamente as cargas fatoriais para garantir que elas representem contribuições de risco. Ele sugere usar o inverso dos autovalores como pesos para as cargas fatoriais para alcançar a paridade de risco. Isso garante que cada ação contribua igualmente para o risco geral do portfólio. O modelo de risco pode ser aprimorado ainda mais com a inclusão de fatores adicionais, como fatores de estilo ou fatores baseados na indústria.

Zura Kakushadze discute os desafios e abordagens na construção de modelos de risco para estratégias de negociação quantitativas. Ele enfatiza a importância de abordar questões como singularidade e instabilidade na matriz de covariância, bem como selecionar fatores de risco apropriados e técnicas de agrupamento. Ao combinar modelos de fatores, classificações da indústria e agrupamento, os traders podem criar modelos de risco personalizados que capturam com eficácia as características de risco de seus portfólios.

  • 00:00:00 O apresentador discute a questão de calcular o inverso da matriz de covariância para otimizar uma carteira de 2.000 ações dos EUA, usando técnicas como otimização de variância média ou maximização de índice de Sharpe. Ele explica que se o número de observações na série temporal de retornos for menor que o número de ações da carteira, a matriz de covariância amostral será singular e não poderá ser invertida. Mesmo se fosse não singular, os elementos fora da diagonal (representando correlações) seriam altamente instáveis fora da amostra, a menos que o número de observações fosse muito maior que o número de ações na carteira, o que normalmente nunca é o caso em aplicações da vida real.

  • 00:05:00 Zura Kakushadze discute como os modelos de risco para estratégias de negociação quantitativa diferem dos modelos de risco tradicionais. Com períodos de retenção mais curtos e alfas efêmeros, longos períodos de retrospectiva não são desejáveis para essas estratégias, e é necessária uma substituição para a matriz de covariância de amostra. Isso normalmente é feito por meio de um modelo de fator, que decompõe o risco em risco de fator e risco específico. O modelo de fator tem a vantagem de modelar a grande matriz por uma matriz de covariância de fator muito menor, tornando-o computacionalmente eficiente. No entanto, ainda existem detalhes diabólicos que precisam ser abordados.

  • 00:10:00 Zura Kakushadze discute os problemas com o cálculo da volatilidade (Sigma) para cada ação e explica que a matriz de correlação de amostra, em vez da matriz de covariância de amostra, deve ser o foco da modelagem devido à sua singularidade, instabilidade e outros problemas. Ele sugere fatorar variâncias distorcidas e modelar por meio de um modelo de fator para a matriz de correlação, não a matriz de covariância. Surge a questão de quais devem ser os fatores de risco, e ele sugere duas possibilidades: usar alguns dos principais componentes da matriz de correlação da amostra ou usar os chamados fatores de estilo, que são as propriedades medidas das ações, como tamanho, momento, volatilidade, etc.

  • 00:15:00 Zura Kakushadze discute diferentes tipos de fatores de risco que podem ser usados na negociação quantitativa, incluindo fatores de estilo e classificações da indústria. Ele destaca a questão de usar fatores de estilo de horizonte mais longo na negociação de horizonte curto, pois eles podem criar ruído na otimização e gerar negócios adicionais sem alfa por trás deles. É importante focar em fatores de horizonte curto que são relevantes para negociação e excluir fatores de horizonte mais longo. Outra questão é a neutralização alfa inadvertida, em que um fator no modelo de risco que é desejável ser longo pode ser inadvertidamente neutralizado, portanto, deve-se considerar cuidadosamente a seleção e ponderação dos fatores de risco.

  • 00:20:00 O palestrante explica como os modelos de risco otimizados podem neutralizar o desejável fator alfa que os traders quantitativos desejam manter por muito tempo. Modelos de risco padronizados que são adquiridos de fornecedores são incapazes de remover fatores de risco indesejáveis do modelo de fator ou da matriz de covariância e não podem cobrir as direções relevantes do espaço de risco do trader. Portanto, o palestrante sugere que um modelo de risco customizado seja construído do zero. Uma maneira de criar um modelo de risco personalizado é usar modelos de risco estatísticos, que envolvem obter uma série temporal de retornos com um período de retrospectiva limitado e criar carregamentos de fator com base nos primeiros K componentes principais da matriz de correlação de amostra.

  • 00:25:00 Zura Kakushadze discute a classificação efetiva como uma forma de determinar o número de componentes principais a serem usados como fatores de risco em uma matriz de cargas fatoriais. A classificação efetiva é definida como a dimensionalidade efetiva de uma matriz e pode ser calculada usando a entropia espectral para determinar a dimensionalidade efetiva de uma matriz de correlação de amostra. A limitação do uso de modelos estatísticos de risco é que o número de fatores de risco é limitado pelo número de observações, resultando em uma porção relativamente pequena do espaço de risco coberto. A instabilidade fora da amostra também é uma preocupação com componentes principais mais altos da matriz de correlação da amostra.

  • 00:30:00 Zura Kakushadze fala sobre a instabilidade de correlações pareadas fora da amostra e como elas se relacionam com a instabilidade dos elementos fora da diagonal na matriz de correlação. Ele explica que os componentes principais mais altos que são calculados a partir dessa matriz de correlação instável são frequentemente atualizados e instáveis, enquanto o primeiro componente principal é relativamente estável. Kakushadze também discute como definir fatores de estilo relevantes para estratégias de holding mais curtas, como valor de mercado e log de preço, e como as ações em circulação podem ser descartadas, pois tem correlações estatisticamente insignificantes com o alfa nas estratégias de negociação intradiária.

  • 00:35:00 Zura Kakushadze discute quatro fatores comuns que são usados em modelos de negociação quant de horizonte curto: direção (momentum), volatilidade, liquidez e preço. Ele explica como definir cada um desses fatores e como calcular seus retornos de fator usando regressão transversal. Kakushadze também enfatiza a importância de calcular o índice de Sharpe anualizado para cada retorno de fator na determinação de sua relevância estatística e adequação para apostar em uma estratégia de negociação.

  • 00:40:00 O palestrante discute formas de testar e verificar as cargas fatoriais e a eficácia dos fatores de estilo na modelagem de risco. Uma forma de testar cargas fatoriais é executar backtests em negociações intradiárias ou negociações alfa mais curtas nos resíduos após fatorar os retornos históricos usando as cargas fatoriais. O palestrante também apresenta dados de backtests, enfatizando o valor de grandes setores em comparação com fatores de estilo, mesmo no nível menos granular. O palestrante então sugere a construção de modelos de risco baseados em setores ou subsetores usando classificações fundamentais do setor, como Bix ou GICS, pois cobrem uma parte maior do espaço de risco do que fatores de estilo. A eficácia desses modelos de risco depende da estabilidade do primeiro componente principal fora da amostra.

  • 00:45:00 Zura Kakushadze discute a construção de uma matriz de cargas fatoriais e o desafio de calculá-la adequadamente para um grande número de sub-indústrias. Ele sugere classificações hierárquicas da indústria como uma solução em que o problema é reduzido a uma matriz menor usando uma abordagem de incorporação de risco de boneca russa. Isso envolve modelar primeiro as subindústrias, depois modelar esses fatores de risco usando o próximo nível granular de indústrias e assim por diante até que o problema seja reduzido a uma matriz menor que possa ser calculada adequadamente.

  • 00:50:00 Zura Kakushadze discute o processo de redução de problemas de forma gradual para calcular modelos de risco para negociação quant. Ao calcular uma matriz de cargas de fator de 10 por 10 para a matriz de covariância de amostra, Kakushadze pode construir um modelo de um fator para o fator restante que é o mercado, reduzindo o problema de 2000 em 2000 para um por um. Ele sugere incluir fatores de estilo nessa construção, mas observa que sua contribuição pode ser limitada em comparação com um número maior de fatores de risco de vários setores. Além disso, os fatores de estilo podem não ser bons proxies para modelar correlações em correlações pareadas entre ações.

  • 00:55:00 Zura Kakushadze explica por que uma interceptação deve ser incluída no processo de normalização dos fatores de estilo. A interceptação é necessária porque o logaritmo do preço, que normalmente é usado como fator de estilo, não é na verdade o logaritmo do preço, mas o logaritmo do preço dividido por um fator de normalização. Essa normalização é uma questão empírica e pode ser customizada de acordo com a preferência do trader. Embora os fatores baseados na indústria tendam a ser proxies confiáveis para modelar correlações, as combinações bilineares de fatores de estilo são proxies bastante ruins. Assim, os comerciantes devem se concentrar em fatores baseados na indústria e personalizar seus modelos de acordo com seu modelo de negociação e Alfas comerciais quantitativos.

  • 01:00:00 O palestrante discute o conceito de heterose, que é a combinação de ideias poderosas, como modelos de fatores, classificações da indústria e componentes principais em uma construção que pode ser bastante poderosa na modelagem de risco. Ele explica que as técnicas de agrupamento também podem ser usadas na construção de fatores de risco por meio de esquemas de agrupamento de vários níveis que podem substituir as classificações fundamentais da indústria. No entanto, um problema com clustering é que ele não é determinístico e pode gerar clusters diferentes toda vez que é executado, levando a ruídos no sistema. Para reduzir o ruído, pode-se anular um grande número de agrupamentos ou usar outras técnicas, como redução de dimensionalidade ou análise de componentes principais.

  • 01:05:00 O palestrante discute diferentes abordagens para agrupamento em modelos de risco de negociação quantitativa. Eles explicam que, embora k-means possa ser não determinístico, o uso de alternativas determinísticas, como agrupamento hierárquico, pode ser subjetivo e mais lento. Além disso, o palestrante sugere o uso dos próprios modelos de risco para agregar em vez de agrupamentos. Ao usar k-means, o palestrante observa que a inicialização dos centros para cada cluster é o que causa a natureza não determinística do algoritmo, mas encontrar o mínimo global nem sempre é necessário. Para aprimorar a abordagem ingênua de usar retornos históricos, o palestrante sugere a normalização dos retornos em relação às volatilidades históricas.

  • 01:10:00 Zura Kakushadze discute a normalização de cluster e clustering multinível para negociação de quant. Ele sugere que o agrupamento deve ser feito dividindo os retornos por variância, em vez de normalizar os retornos com dois desvios padrão para otimizar os portfólios e melhorar o desempenho. Kakushadze propõe duas maneiras de clustering multinível: bottom-up, onde o nível mais granular é criado primeiro, então agrupando sucessivamente os clusters, e top-down, onde o nível menos granular é criado primeiro, então agrupando sucessivamente os tickers. Além disso, algoritmos não determinísticos, como algoritmos hierárquicos, não são vantajosos em desempenho quando comparados a algoritmos determinísticos, e Kakushadze sugere o uso de técnicas de agrupamento e agregação.

  • 01:15:00 O palestrante discute possíveis maneiras de corrigir o número de clusters em um modelo de negociação. Uma opção é usar heurística baseada na classificação efetiva para determinar o número de clusters necessários. Alternativamente, pode-se manter o número de clusters como hiperparâmetros e otimizá-los por meio de backtests fora da amostra. Além disso, há um método discutido para alinhar clusters produzidos por diferentes execuções de k-means e agrupar esses centros alinhados por meio de k-means para gerar um alinhamento das execuções de k-means originais em k clusters. Esse método pode resultar em um número menor de clusters do que o pretendido, mas ainda pode fornecer um modelo útil com menos clusters.

  • 01:20:00 O palestrante discute várias maneiras de agregar modelos de risco na negociação quantitativa. Uma abordagem é alinhar os clusters usando k-means e descartar clusters vazios para eliminar clusters ruidosos, que podem ser aplicados como o algoritmo de agrupamento. Embora o próprio processo de alinhamento não seja determinístico, ele produz um resultado menos ruidoso e suficiente. Outro método envolve agregar os próprios modelos de risco calculando a matriz de covariância do modelo com base em um único k-means, que é um modelo de fator. No entanto, a matriz de covariância do fator correspondente pode ser singular devido a pequenos valores de p e um grande número de clusters, limitando a cobertura do espaço de risco. Ao agregar um grande número de modelos de risco baseados em k-means únicos, muito mais direções no espaço de risco são cobertas, resultando em um modelo de risco não fatorado com cobertura mais ampla.

  • 01:25:00 Zura Kakushadze discute as diferentes formas de fazer modelagem de risco e qual abordagem funciona melhor. Ele explica que os modelos estatísticos de risco baseados em componentes principais são os de pior desempenho porque cobrem apenas uma pequena parte do espaço de risco. Modelos de risco de aprendizado de máquina, como clustering, têm um desempenho substancialmente melhor porque revelam relações entre retornos que não existem no nível linear. No entanto, eles ainda apresentam desempenho inferior aos modelos de risco heteróticos baseados na classificação fundamental da indústria. Os seres humanos ainda superam as máquinas nesse aspecto porque as classificações fundamentais da indústria são baseadas em uma análise completa de vários fatores, apesar dos ocasionais julgamentos incorretos. Não se sabe se um algoritmo de aprendizado de máquina será capaz de superar os humanos na modelagem de risco.

  • 01:30:00 O palestrante incentiva os espectadores a mergulhar no backtesting e obter experiência prática com as estratégias de negociação discutidas no vídeo. Eles fornecem links para documentos e código-fonte que podem ser usados para otimizar e adaptar as estratégias para estilos de negociação individuais. Além disso, os organizadores mencionam as iniciativas da Condensity, incluindo um programa de certificação e um portal de aprendizado individualizado, com o objetivo de se tornar uma potência global de conhecimento e tecnologia em negociação algorítmica e quantitativa.
 

Forex Trading para Iniciantes | Negociação algorítmica nos mercados de câmbio por Dr. Alexis Stenfors



Forex Trading para Iniciantes | Negociação algorítmica nos mercados de câmbio por Dr. Alexis Stenfors

Dr. Alexis Stenfors investiga uma análise abrangente do mercado de câmbio (FX), com foco particular na liquidez e seu significado. Ele começa enfatizando o imenso tamanho do mercado de câmbio e sua escala comparativa em relação ao mercado de ações global. Apesar de possíveis crises ou desastres naturais, a liquidez no mercado de câmbio tende a permanecer robusta.

Dr. Stenfors lança luz sobre a natureza competitiva do mercado FX profissional, observando seu escopo internacional. A negociação de um único par de moedas neste mercado não é possível sem a negociação simultânea de outro par de moedas. Essa característica distingue o mercado de câmbio do mercado de ações, onde a compra de ações é mais comum e direta. Além disso, os bancos centrais podem intervir no mercado de câmbio influenciando o valor de uma moeda por meio de ações como imprimir dinheiro ou intervenção direta, enquanto tais intervenções são menos comuns no mercado de ações. Além disso, o mercado FX opera sem regulamentações, disjuntores e transparência, dificultando o acesso a dados confiáveis para fins de pesquisa.

O núcleo da liquidez no mercado de câmbio é explicado pelo Dr. Stenfors, que destaca a importância das relações e convenções entre os bancos. Ao contrário dos mercados tradicionais de ações e ações, os formadores de mercado no mercado de câmbio não podem cotar preços ou fornecer liquidez, a menos que saibam que outra parte está pronta para retribuir. No mercado de swap FX, os spreads de compra e venda dos concorrentes tendem a se agrupar em torno de dígitos específicos e, intrigantemente, os concorrentes geralmente citam exatamente os mesmos spreads em vez de oferecer spreads variados.

As convenções de mercado na indústria de negociação forex são discutidas pelo Dr. Stenfors, com foco em convenções baseadas em preço e volume. Essas convenções ditam o comportamento comercial apropriado e facilitam relacionamentos fortes entre bancos e clientes. Pesquisas indicam que apenas uma pequena porcentagem de comerciantes segue as convenções principalmente para fins lucrativos, enquanto a maioria as percebe como um meio de promover relacionamentos e manter uma imagem positiva do mercado. A ascensão da negociação algorítmica trouxe mudanças nessas convenções, com a negociação algorítmica respondendo por mais de 70% das negociações em plataformas como a EBS.

As implicações da negociação algorítmica para o mercado forex são debatidas pelo Dr. Stenfors. Os defensores argumentam que a negociação de alta frequência pode aumentar a eficiência do mercado, reduzir os custos de transação e melhorar a liquidez. No entanto, os céticos afirmam que os algoritmos são inadequados para aderir a convenções que foram originalmente projetadas para relacionamentos humanos. Os comerciantes que usam plataformas eletrônicas podem enfrentar desafios quando o mercado se move rapidamente enquanto tentam executar negociações. A liquidez é agora percebida como complexa e difícil de determinar. Apesar dos diferentes pontos de vista sobre algoritmos, ambos os lados concordam que a liquidez FX está passando por mudanças que requerem um exame mais detalhado. Dr. Stenfors apresenta dados de uma plataforma de negociação indicando uma divisão igual entre negociação humana e algorítmica em 2010.

Examinando o volume e a liquidez do mercado forex, o Dr. Stenfors se concentra no par de moedas euro-dólar como exemplo. Ele revela que, ao longo de três dias de negociação, o valor total de ordens limitadas para o euro-dólar foi de 1,8 trilhão, com um spread estreito de apenas 0,08%. Isso indica um mercado altamente líquido com spreads apertados. No entanto, menos de um por cento de todas as ordens limitadas realmente resultaram em transações, e o tempo de vida médio das ordens limitadas foi de apenas 2,5 segundos. Essas descobertas sugerem que, embora o mercado possa parecer líquido, sua verdadeira liquidez pode ser menos significativa do que parece. O Dr. Stenfors questiona se a liquidez pode ser acessada rapidamente e realiza um teste para determinar se o mercado reage prontamente a tentativas de negociação.

O Dr. Stenfors compartilha sua pesquisa sobre o impacto dos envios de ordens limitadas sobre a liquidez no mercado FX. Analisando 1,4 milhão de envios de pedidos com limite, ele descobre que um novo pedido com limite imediatamente adiciona liquidez ao outro lado do livro de pedidos, beneficiando os operadores de alta frequência. No entanto, a liquidez desaparece em 0,1 segundo, sugerindo que a negociação algorítmica contribui apenas para a liquidez de curto prazo. O Dr. Stenfors destaca uma mudança significativa na disposição de apoiar a liquidez no mercado de câmbio na última década, ressaltando a importância de considerar vários aspectos da liquidez, como liquidez baseada em preço, liquidez baseada em volume, liquidez baseada na comunidade e liquidez baseada em velocidade ao analisar o mercado.

O conceito de diferentes tipos de ordens na negociação forex e suas implicações éticas é explicado pelo Dr. Stenfors. Ele elucida que as ordens divididas são empregadas para dividir grandes ordens em menores para evitar que outros comerciantes cancelem suas ordens e para ocultar ordens ricas em informações. No entanto, as ordens de colher, que criam uma falsa impressão do estado do mercado, são normalmente ilegais na maioria dos mercados. Por outro lado, as ordens de ping, destinadas a extrair informações ocultas do mercado, são menos controversas, mas sujeitas a interpretações. O Dr. Stenfors também apresenta sua definição conservadora de pedidos divididos, revelando que eles representam 15-20% dos pedidos de euro, dólar e dólar, entre os cinco pares de moedas examinados.

O Dr. Stenfors investiga o uso de ordens divididas e sua agressividade no mercado FX. Ao contrário da crença popular, grandes pedidos geralmente exibem alta agressividade, e os pedidos divididos servem não apenas para mascarar quantias maiores, mas também para permitir que os comerciantes algorítmicos enviem pedidos mais agressivos. No entanto, a resposta do mercado às ordens divididas é muito mais pronunciada em comparação com as ordens humanas típicas, e os algoritmos se adaptam rapidamente a essa estratégia, tornando as ordens divididas menos eficazes. A discussão também aborda spoofing e ping, indicando que os principais pares de moedas, como euro dólar e dólar iene, são altamente sensíveis a informações, tornando-os suscetíveis a spoofing, enquanto o ping é usado para extrair informações ocultas, testando o mercado com pedidos e observando quaisquer reações. .

Dr. Stenfors apresenta um proxy que ele desenvolveu para analisar a prevalência de "pinging" em vários mercados FX. Uma ordem de ping é cancelada antes que ocorra qualquer mudança no mercado, tornando-se um indicador potencial de atividade de ping. Usando um banco de dados abrangente, o Dr. Stenfors estima que cerca de 10% dos pedidos nos mercados Euro, Dólar e Amarelo podem ser pedidos de ping em potencial. No entanto, em mercados como Euro Sueco e Dólar Rublo, esse percentual aumenta significativamente, chegando a 50% e 80%, respectivamente. Notavelmente, o ping parece ser mais proeminente em mercados menos negociados na plataforma. O Dr. Stenfors sugere que o estudo da liquidez requer a consideração de diversas estratégias e tempos de vida das ordens, já que a função de criação de mercado, particularmente no mercado FX pop, está sendo cada vez mais realizada por algoritmos.

O Dr. Stenfors discute a natureza evolutiva da liquidez no mercado forex e enfatiza a necessidade de uma gama mais ampla de métricas para avaliá-la. Ele ressalta o impacto das barreiras nas estratégias de ordem, como split-offs, spoofing e ping. Embora essas questões tenham sido extensivamente estudadas nos mercados de ações, seus efeitos na liquidez cambial podem ser significativamente diferentes, apesar do tamanho maior do mercado cambial. O Dr. Stenfors recomenda que os comerciantes permaneçam cientes dessas complexidades, independentemente de seus métodos de envio de pedidos e forneça recursos adicionais para os interessados em uma exploração mais aprofundada.

Dr. Alexis Stenfors oferece uma análise detalhada do mercado forex, focando especificamente na liquidez e suas várias dimensões. Sua pesquisa destaca as características únicas do mercado forex, incluindo seu tamanho, natureza competitiva e escopo internacional. Ele enfatiza a importância das convenções de mercado, as implicações da negociação algorítmica e o impacto de diferentes tipos de ordens na liquidez. Por meio de seus estudos, o Dr. Stenfors revela as complexidades e a natureza evolutiva da liquidez forex, ressaltando a necessidade de avaliação e compreensão abrangentes neste mercado dinâmico.

  • 00:00:00 O Dr. Alexis Stenfors discute o mercado de câmbio (FX) e, em particular, a importância da liquidez. Ele destaca o tamanho do mercado FX e seu tamanho comparativo com o mercado de ações global. Ele também observa como a liquidez em geral é muito boa, mesmo em tempos de crise ou desastres naturais. O Dr. Stenfors então discute a natureza competitiva do mercado FX no ambiente profissional e como ele é internacional, o que significa que não se pode negociar um único par de moedas sem negociar outra coisa também.

  • 00:05:00 O Dr. Alexis Stenfors explica as características únicas do mercado Forex que o diferenciam do mercado de ações. O mercado Forex tem uma simetria perfeita, pois a compra de uma moeda envolve automaticamente a venda de outra, enquanto o mercado de ações tende a comprar ações. Além disso, os bancos centrais podem intervir no mercado Forex regulando o valor de uma moeda por meio da impressão de dinheiro ou por meio de intervenção direta, ao passo que geralmente não intervêm no mercado de ações. O mercado Forex também é um mercado não regulamentado, sem disjuntores, e é um mercado OTC, tornando-o muito opaco e difícil de acessar dados para fins de pesquisa.

  • 00:10:00 O Dr. Alexis Stenfors explica o núcleo da liquidez no mercado FX e os diferentes tipos de liquidez com base no preço, volume e velocidade. A liquidez no mercado é baseada em relacionamentos e convenções entre bancos, o que é diferente dos mercados tradicionais de ações e ações. Os formadores de mercado são incapazes de cotar preços ou fornecer liquidez sem saber que outra parte está lá para colocá-los de volta. No mercado de swap cambial, o spread bid-ask para os preços dos concorrentes tende a se agrupar em torno de certos dígitos, e a parte interessante é que os concorrentes geralmente citam exatamente os mesmos spreads em vez de diferentes.

  • 00:15:00 O Dr. Alexis Stenfors discute a importância das convenções de mercado na indústria de negociação forex, incluindo convenções baseadas em preço e volume. Essas convenções estão relacionadas ao comportamento comercial apropriado e à manutenção de boas relações entre bancos e clientes. Pesquisas mostram que apenas uma pequena porcentagem dos comerciantes segue as convenções para obter lucro, enquanto a maioria vê isso como um meio de promover relacionamentos e manter uma boa imagem no mercado. Com o surgimento da negociação algorítmica, essas convenções estão mudando, com um aumento significativo na negociação algorítmica em plataformas como a EBS, onde agora representa mais de 70% da negociação.

  • 00:20:00 Dr. Alexis Stenfors discute as implicações da negociação algorítmica para o mercado cambial. Enquanto alguns argumentam que o comércio de alta frequência pode levar a um mercado mais eficiente, com menores custos de transação e melhor liquidez, outros argumentam que os algoritmos não são adequados para seguir as convenções destinadas às relações humanas. Os comerciantes que usam plataformas de negociação eletrônica podem ficar desapontados quando o mercado se move assim que tentam negociar, e a liquidez agora é vista como complicada e difícil de definir. Independentemente da posição de cada um sobre os algoritmos, ambos os lados concordam que a liquidez FX está mudando e precisa ser analisada com mais cuidado. O Dr. Stenfors apresenta dados de uma plataforma de negociação que era 50% humana e 50% algorítmica em 2010.

  • 00:25:00 O Dr. Alexis Stenfors discute o volume e a liquidez do mercado forex, usando o exemplo do par de moedas euro-dólar. Ele observa que, durante três dias de negociação, o valor total de ordens limitadas de eurodólar foi de 1,8 trilhão, com um spread de apenas 0,08%, tornando-o um mercado muito líquido com spreads apertados. No entanto, ele prossegue discutindo que apenas menos de um por cento de todas as ordens de limite realmente resultaram em uma transação, e o tempo de vida médio da ordem de limite foi de apenas 2,5 segundos, sugerindo que, embora o mercado pareça líquido, pode ser menos líquido do que parece. . Ele então questiona se a liquidez pode ser obtida rapidamente e realiza um teste para verificar se o mercado se move assim que uma transação é tentada.

  • 00:30:00 O Dr. Alexis Stenfors discute sua pesquisa sobre o impacto das submissões de ordens limitadas na liquidez no mercado FX. Ele analisou 1,4 milhão de envios de pedidos com limite e descobriu que um novo pedido com limite imediatamente adiciona liquidez ao outro lado do livro de pedidos com limite, o que é benéfico para os operadores de alta frequência. No entanto, a liquidez desaparece após 0,1 segundo, e isso é consistente com a ideia de que a negociação algorítmica só é boa para liquidez no curtíssimo prazo. Além disso, ele destaca que houve uma mudança significativa na disposição de apoiar a liquidez no mercado de câmbio nos últimos dez anos. Portanto, é importante considerar liquidez baseada em preço, liquidez baseada em volume, liquidez baseada na comunidade e liquidez baseada em velocidade ao analisar o mercado.

  • 00:35:00 O Dr. Alexis Stenfors explica o conceito de diferentes tipos de ordens na negociação forex e suas implicações éticas. Ele explica que os pedidos divididos são usados para dividir pedidos grandes em pedidos menores, para evitar que outros traders cancelem seus pedidos e para ocultar o pedido rico em informações. No entanto, os pedidos de colher são ilegais na maioria dos mercados, pois criam uma falsa impressão do estado do mercado. As ordens de ping destinam-se a extrair informações ocultas sobre o mercado e não são consideradas controversas, mas seu significado varia de acordo com a interpretação. A seção também fala sobre a definição conservadora do Dr. Stenfors de ordens divididas, que resultou em 15-20% para euro-dólar e dólar-iene nos cinco pares de moedas examinados.

  • 00:40:00 Dr. Alexis Stenfors discute o uso de ordens divididas e sua agressividade no mercado FX. Ao contrário da crença popular, grandes pedidos costumam ser muito agressivos, e os pedidos divididos são usados não apenas para disfarçar quantias maiores, mas também para permitir que os comerciantes algorítmicos enviem pedidos mais agressivos. No entanto, a reação a uma ordem de divisão é muito mais forte do que a uma ordem humana típica, e os algoritmos são rápidos em perceber isso, tornando essas estratégias de divisão de ordem menos bem-sucedidas. O Dr. Stenfors também aborda o assunto de spoofing e ping, explicando que, ao contrário da crença comum, os principais pares de moedas, como o euro-dólar ou o dólar iene, são extremamente sensíveis às informações, tornando-os altamente suscetíveis a spoofing, enquanto o ping é usado para extraia informações ocultas testando as águas com ordens e observando quaisquer reações.

  • 00:45:00 O Dr. Alexis Stenfors discute um proxy que ele criou para analisar a importância do "pinging" em diferentes mercados de câmbio. Uma ordem de ping é uma ordem que é cancelada antes que qualquer mudança ocorra no mercado, tornando-se uma ordem de ping em potencial. O Dr. Stenfors usou um banco de dados para descobrir quantos pedidos podem ser pedidos de ping em potencial e descobriu que é cerca de 10% nos mercados Euro, Dólar e Amarelo e chega a 50% no Euro Sueco e 80% no Dólar Rublo. O fato interessante aqui é que o ping parece ser mais proeminente nos mercados menos negociados na plataforma. Isso significa que a negociação de rublos na plataforma é muito grande, mas não há negociação real acontecendo, e quase 80% provavelmente está enviando ordens de comerciantes algorítmicos. Dr. Stenfors sugeriu que se você está estudando a liquidez, há muitas maneiras de estudá-la, e uma coisa importante é olhar para diferentes estratégias e calcular o tempo de vida do pedido, como a função de criação de mercado, especialmente no FX pop mercado, está mudando para ser feito cada vez mais por algoritmos.

  • 00:50:00 Dr. Alexis Stenfors discute a mudança de liquidez do mercado cambial e a necessidade de uma ampla gama de métricas para avaliá-lo. Ele também destaca o impacto das barreiras para as estratégias de pedidos, que podem resultar em split-offs, spoofing e ping. Embora essas questões tenham sido amplamente pesquisadas nos mercados de ações, seu impacto na liquidez no mercado cambial pode ser muito diferente, apesar de seu tamanho maior. O Dr. Stenfors recomenda que os comerciantes estejam cientes dessas complexidades, independentemente de como eles enviam pedidos, e fornece recursos para os interessados em aprender mais.
 

Desenvolva e teste suas estratégias de negociação | Tutorial Completo



Desenvolva e teste suas estratégias de negociação | Tutorial Completo

O vídeo começa apresentando um quant experiente que fornecerá orientação sobre o desenvolvimento e a execução de estratégias de negociação usando o Blueshift, uma plataforma baseada em nuvem. A Blueshift oferece conjuntos de dados abrangentes, incluindo mercados de ações dos EUA e da Índia, bem como dados Forex detalhados. A sessão abrange estratégias sistemáticas, uma cartilha sobre Python, uma introdução ao Blueshift, criação de modelos reutilizáveis para backtesting, indicadores técnicos, construção de uma estratégia simples usando um único indicador e gerenciamento de estratégias de portfólio. É importante ressaltar que a sessão não oferece recomendações comerciais ou afirma fornecer estratégias infalíveis.

O palestrante destaca as diferentes abordagens para estilos de negociação, como fundamental, técnico e quant, e como eles tratam tendências, reversão média, fugas e carregam de maneiras únicas. Projetar uma estratégia de negociação sistemática envolve a seleção de títulos, geração de sinais de compra e venda, cálculo de carteiras-alvo, execução de negociações e melhoria contínua do processo. O palestrante explica as entradas necessárias para estratégias sistemáticas, incluindo dados de preços e suas transformações, informações fundamentais e não relacionadas ao mercado e regras/lógica de negociação. Essas regras podem ser desenvolvidas com base na hipótese de um trader ou por meio de técnicas baseadas em dados, como aprendizado de máquina e inteligência artificial.

O palestrante enfatiza a importância de testar estratégias de negociação por meio de backtesting e forward testing. O backtesting ajuda os traders a verificar a validade de suas hipóteses, enquanto o teste avançado protege contra vieses e armadilhas, como vieses de mineração de dados, vieses de sobrevivência, modelagem de impacto de mercado e vieses de previsão. Uma plataforma flexível de backtesting é essencial para ajustar e modificar estratégias, e o gerenciamento de risco e a criação de portfólio são cruciais, pois nem todas as estratégias funcionam bem em todos os mercados. O palestrante fornece uma breve introdução ao uso de código baseado em Python na plataforma Blueshift para criação e teste de estratégias.

O vídeo explica as quatro funções essenciais necessárias para testar estratégias de negociação no Blueshift. Essas funções são "initialize", que define os parâmetros iniciais, "before_trading_start", chamada antes de cada sessão de negociação, "handle_data", executada a cada nova chegada de barra de preço e "analyze", usada para análise de estratégia. O palestrante demonstra a ordem em que essas funções são chamadas e como os traders podem posicionar seu código dentro de cada função. A seção termina com uma introdução básica ao uso do Python na plataforma Blueshift.

Para espectadores não familiarizados com o Python, o vídeo oferece uma cartilha sobre os fundamentos do Python. Abrange variáveis, strings, inteiros, floats e estruturas de dados como dicionários e listas. A criação de funções e classes em Python também é apresentada. O vídeo então se aprofunda no fluxo de trabalho do Blueshift, explicando as etapas "inicializar", "before_trading_start", "handle_data" e "analisar". A utilidade das funções agendadas e de pedidos é destacada.

O apresentador discute as três principais funções de ordenação no Blueshift. A primeira função, "order_percent_target", permite que os traders assumam posições em ativos subjacentes com base no peso do portfólio alvo. A segunda função, "get_open_orders", fornece o número de pedidos pendentes, e a terceira função, "cancel_order", permite o cancelamento de pedidos. O apresentador enfatiza a importância de controlar o ambiente de negociação e demonstra funções como "set_commission", "set_slippage" e "set_account_currency". Os objetos "contexto" e "dados" no Blueshift são explicados, mostrando seu papel na captura do estado do algoritmo e no acesso aos dados. Um exemplo ilustra o acesso ao portfólio e aos dados para uma estratégia simples de comprar e manter usando a função "histórico". É introduzido o conceito de agendamento usando a função "schedule", permitindo que os usuários definam quando funções específicas devem ser chamadas.

O tutorial se concentra na criação de um modelo para simplificar o desenvolvimento da estratégia e evitar código repetitivo. Bibliotecas de indicadores técnicos como TLE e bibliotecas padrão como Pandas e Numpy são importadas. O universo de títulos é reduzido aos principais índices, e a variável "contexto" é inicializada como um dicionário para armazenar os parâmetros da estratégia. Esses parâmetros incluem retrospectiva do indicador, limites de compra/venda, períodos de média móvel, RSI, bandas B, ATR e frequência de negociação. Este modelo visa minimizar o código clichê e padronizar os parâmetros para facilitar as modificações.

O palestrante apresenta uma variável para controlar a negociação e criar uma carteira com pesos para cada instrumento do universo. Eles definem comissão e derrapagem para zero para fins de demonstração. A função "handle_data" é definida para executar negociações a cada 15 minutos. A função "run_strategy" se torna a função principal para executar a estratégia. Ele recupera os preços anteriores e calcula os pesos antes do rebalanceamento usando a função "context.universe.prices". A função "rebalancear" itera por todos os títulos no universo e coloca ordens para atingir os pesos-alvo. Uma função anônima é definida para imprimir o portfólio de contexto e os pesos, e uma classe "consultora" é criada para calcular o objeto de peso.

O palestrante explica como definir as entradas para a classe "assessor", incluindo nome e função de sinal, e como passar pelo universo de seleção de ações. Eles cobrem a inicialização e o armazenamento do desempenho do consultor, bem como a definição da função principal que chama a função de sinal para gerar sinais de compra/venda. O palestrante enfatiza a definição da função de sinal com base em indicadores técnicos, muitas vezes expressos como funções ponderadas de preços passados. Eles recomendam consultar artigos teóricos de especialistas como Cliff Asness, da AQR Capital Management.

Os indicadores técnicos e sua correlação com o mercado são discutidos com base na análise estatística usando a análise de componentes principais. Os indicadores técnicos atuam como filtros de preços ou retornos passados, capturando tendências de longo ou curto prazo ao filtrar dados de alta ou baixa frequência. No entanto, os indicadores técnicos podem ser profecias auto-realizáveis e são suscetíveis a certos tipos de algoritmos de negociação que podem levar a busca por impulso ou stop-loss. É importante ter um portfólio de diferentes indicadores ao desenvolver e testar estratégias de negociação.

O instrutor explica como importar a biblioteca de análise técnica e lista os indicadores técnicos disponíveis. Usando o exemplo de Bollinger Bands, o instrutor demonstra a função "Bbands" para recuperar o valor da última linha. Outras funções como RSI, MACD, suporte Fibonacci, resistência, etc., também são exibidas. O instrutor explica a função "get_price" e a função "handle_data", que verifica se é hora de negociar para cada período. A função "run_strategy" procura argumentos adequados usando a função "advisor_compute_signal_price", seguida pela função "rebalance" para fazer pedidos de porcentagens alvo. Finalmente, a função "analisar" é usada para análise de estratégia.

O palestrante se concentra no gerenciamento de portfólios de estratégia para aumentar os lucros comerciais algorítmicos. Em vez de confiar em uma única estratégia, recomenda-se executar várias estratégias simultaneamente ou em períodos diferentes. Quatro métodos para gerenciar portfólios de estratégia são discutidos: criação de um comitê, usando um modelo de mudança de regime, alocação dinâmica e investimento baseado em fatores. A média pode melhorar a estabilidade do sinal. O código da estratégia envolve adicionar um agente responsável pela seleção de consultores e alocação de capital. O agente usa uma função de pesagem para atualizar os pesos do orientador, que afetam a função de rebalanceamento.

O palestrante explica como definir e ponderar portfólios com base no número de conselheiros, com alocação igual para cada um. Eles demonstram a criação de consultores especializados separados e um agente para alocar capital entre eles. Um backtest usando QuickBacktest mostra um desempenho significativamente melhorado em comparação com casos individuais. O palestrante enfatiza a importância do rebaixamento em uma estratégia de negociação e sugere observar o índice Sortino e a estabilidade da curva de lucros e perdas. O portfólio de entrada de média ponderada igual melhora significativamente o desempenho, mas há espaço para melhorias adicionais.

O palestrante apresenta o conceito de "negociação sem arrependimento", que envolve a determinação da estratégia de investimento de melhor desempenho em um mercado difícil de prever. Em vez de depender de um único investimento, a estratégia envolve variar os pesos de cada investimento. O palestrante recomenda a utilização do algoritmo de gradiente exponencial para determinação dos pesos, ajustando-os com base na resposta da carteira aos cenários de mercado. O critério de Kelly também é sugerido para alocação de capital, maximizando retorno versus variância com base no movimento browniano geométrico.

O palestrante explica a saída de pesos e como eles diferem para diferentes orientadores. Eles testam um sinal aleatório que idealmente recebe menos alocação em comparação com outros sinais se for genuinamente aleatório. O palestrante discute a função do agente, que recebe uma lista de conselheiros e um parâmetro de taxa de aprendizado e calcula a função de peso. Ele itera através da lista de conselheiros, calcula o sinal do conselheiro, agrega-os por setor e atualiza os pesos de contexto com base no peso calculado. A seção termina com diretrizes sobre o desenvolvimento de estratégias, incluindo evitar o overfitting, verificar a alavancagem da conta e fornecer uma lista de estratégias de demonstração para os espectadores explorarem.

O palestrante discute diferentes métodos de testes futuros, como negociação em papel ou negociação com uma pequena quantia de capital em mercados ao vivo. Eles mencionam que o BlueShift atualmente não oferece suporte ao PI Torch ou ao Jupiter Notebook, mas planeja oferecer suporte ao Keras e ao TensorFlow. A plataforma não se limita aos mercados indianos e pode acessar dados de ações dos EUA e da Índia, bem como dados de câmbio. O palestrante observa que o BlueShift não possui ferramentas de depuração integradas no momento, mas considera adicioná-las no futuro.

O palestrante fala sobre o backtesting de opções e menciona que a maioria das plataformas que o oferecem não é confiável ou requer extensa limpeza e organização de dados. Eles também observam que os Gravitons indianos suportam apenas futuros líquidos e não permitem feeds de dados de terceiros. O período mínimo de backtesting recomendado depende da frequência de negociação e, embora dados de um minuto para os mercados indianos estejam disponíveis, as execuções de otimização não são eficientes devido a limitações de tecnologia. O BlueShift não possui taxas e não há restrições quanto ao número de backtests simultâneos, desde que o tráfego do site possa lidar com eles. Backtesting para PSA e usando pacotes Python é possível, mas há uma lista restrita de pacotes disponíveis por motivos de segurança.

O palestrante explica que o backtesting é uma etapa crucial no desenvolvimento e avaliação de estratégias de negociação. Ajuda a determinar se uma estratégia é viável e lucrativa antes de implantá-la em mercados ativos. Eles destacam a importância de considerar custos de transação, derrapagem e outros fatores do mundo real ao fazer backtesting para garantir resultados realistas.

O palestrante apresenta a plataforma BlueShift, que fornece um ambiente para backtesting e implantação de estratégias de negociação. O BlueShift suporta backtesting em ações indianas, ações americanas e mercados cambiais. Os usuários podem escrever e testar suas estratégias usando Python e aproveitar várias funções e bibliotecas integradas. A plataforma também permite que os usuários negociem suas estratégias no papel ou negociem com capital real, dependendo de suas preferências.

O palestrante enfatiza a importância dos testes futuros, que envolvem a implantação de uma estratégia com uma pequena quantidade de capital em mercados ativos. Isso ajuda a validar o desempenho e o comportamento da estratégia em condições de tempo real. Eles mencionam que o BlueShift atualmente suporta testes avançados para mercados indianos, e os usuários podem negociar no papel com um capital virtual de até 1 crore (10 milhões) de rúpias indianas.

O backtesting de opções também é discutido, com o palestrante mencionando que muitas plataformas existentes para backtesting de opções não são confiáveis ou exigem extensa limpeza e preparação de dados. Eles observam que o BlueShift atualmente não oferece suporte a backtesting de opções, mas pode considerar adicioná-lo no futuro.

Em relação à disponibilidade de dados, o palestrante menciona que o BlueShift fornece dados históricos para os mercados de ações indiano, americano e cambial. No entanto, eles observam que otimizar estratégias com dados de um minuto para mercados indianos pode não ser eficiente devido a limitações tecnológicas.

O palestrante esclarece que a BlueShift não cobra nenhuma taxa por backtesting ou uso da plataforma. Os usuários podem realizar quantos backtests quiserem, desde que o tráfego do site possa lidar com a carga. Eles também mencionam que o BlueShift tem uma lista restrita de pacotes Python disponíveis por motivos de segurança, mas os usuários ainda podem aproveitar pacotes populares como pandas e numpy.

O palestrante destaca a importância do backtesting completo e do teste avançado no desenvolvimento da estratégia. Eles incentivam os usuários a aproveitar a plataforma BlueShift para backtesting e implantação de suas estratégias de negociação, mantendo em mente as limitações e considerações discutidas durante a apresentação.

  • 00:00:00 O anfitrião apresenta um quant experiente que orientará os espectadores sobre como desenvolver e executar estratégias de negociação usando o Blueshift, uma plataforma baseada em nuvem para desenvolvimento de estratégias. O quant descreve o Blueshift como tendo conjuntos de dados que incluem os mercados de ações dos EUA e da Índia, bem como o Forex enganado com dados de nível de minuto. A sessão cobrirá breves pontos sobre estratégias sistemáticas, uma pequena cartilha sobre Python, uma introdução ao Blueshift, criação de um modelo reutilizável para backtesting, indicadores técnicos, criação de uma estratégia simples usando um único indicador técnico e gerenciamento de uma estratégia de portfólio em diferentes caminhos. A sessão não é sobre recomendações comerciais ou sobre as melhores estratégias que sempre funcionam.

  • 00:05:00 O palestrante mencionou que diferentes estilos de negociação, como fundamental, técnico e quant, tratam a tendência, reversão à média, fugas e carregam de maneiras diferentes. Eles também discutiram como projetar uma estratégia de negociação sistemática, que envolve selecionar o universo de valores mobiliários, gerar sinais de compra e venda, calcular carteiras de destino, executar a estratégia e melhorar continuamente o processo. Além disso, o palestrante explicou as entradas para desenvolver estratégias sistemáticas, como preços e suas transformações, informações fundamentais e não de mercado e regras ou lógica de negociação, que podem ser desenvolvidas pela hipótese de um trader ou deixando os dados dizerem as regras usando aprendizado de máquina e inteligência artificial.

  • 00:10:00 O palestrante discute a importância de testar estratégias de negociação, incluindo backtesting e forward testing. O backtesting permite que os traders estabeleçam se suas hipóteses estão corretas testando suas estratégias, enquanto o teste avançado protege contra vieses, como vieses de mineração de dados, vieses de sobrevivência, modelagem de impacto de mercado e vieses de previsão. O palestrante enfatiza a necessidade de uma plataforma de backtesting flexível para ajustar e modificar estratégias, mas também destaca a importância da criação de portfólio e gerenciamento de risco, pois nem todas as estratégias funcionam bem em todos os mercados. Por fim, o palestrante fornece uma breve cartilha sobre o uso de código baseado em Python na plataforma blue shift para criar e testar estratégias de negociação.

  • 00:15:00 O palestrante explica as quatro diferentes funções necessárias para backtesting de estratégias de negociação usando uma plataforma específica. A primeira função é initialize, usada para configurar os parâmetros iniciais para o backtesting. O segundo é chamado antes do início da negociação, que é chamado todos os dias antes do início da sessão de negociação. A terceira função é manipular dados, chamada a cada nova chegada de barra de preço, e a função final é chamada de análise. O palestrante também mostra a ordem em que cada função é chamada com base em um conjunto de dados selecionado e como se pode determinar onde colocar seu código em cada função. A seção termina com uma breve introdução ao uso do Python para codificação.

  • 00:20:00 Os fundamentos do Python são explicados para aqueles que podem não estar familiarizados com a linguagem. O uso de variáveis, strings, inteiros e floats são discutidos, bem como estruturas de dados como dicionários e listas. A criação de funções e classes em Python também é apresentada. O vídeo passa a explicar as quatro etapas do fluxo de trabalho do Blueshift: inicializar, before_trading_start, manipular_dados e analisar. A utilidade das funções agendadas e de pedidos também é explicada.

  • 00:25:00 O apresentador discute as três principais funções de pedidos usadas na Blue Shift, uma plataforma de negociação. A primeira função é o percentual de ordem de destino, que é usado para assumir posições em ativos subjacentes no peso de seu portfólio de destino. A segunda função é obter ordens abertas, que fornece o número de ordens que precisam ser executadas, e a terceira função é cancelar ordem. Além disso, o apresentador explica a importância de controlar seu ambiente de negociação e fornece exemplos de como implementar isso usando funções como definir comissão, definir derrapagem e definir moeda da conta. O apresentador também explica o contexto e os objetos de dados no Blue Shift, como eles são usados para capturar o estado do algoritmo e acessar os dados e fornece um exemplo de como acessar seu portfólio e dados em uma estratégia simples de comprar e manter usando a função de histórico. Finalmente, o apresentador introduz o conceito de agendamento usando a função agendar, que pode ser usada para definir quando chamar uma função em termos de dias e horas.

  • 00:30:00 O tutorial se concentra na criação de um modelo para os comerciantes usarem para evitar código repetitivo. O tutorial importa bibliotecas de indicadores técnicos, como TLE e bibliotecas padrão para Pandas e Numpy. O universo é então reduzido a dois índices principais, e a variável de contexto é inicializada como um dicionário para armazenar parâmetros para estratégias em um único lugar. Os parâmetros incluem retrospectiva do indicador, limite para compra e venda e períodos para médias de movimentação rápida e lenta, RSI, bandas B e ATR e frequência de negociação. Este modelo é útil para minimizar o código clichê e padronizar parâmetros para facilitar as alterações.

  • 00:35:00 O palestrante adiciona uma variável para controlar a negociação e criar uma carteira de pesos para cada instrumento do universo. Eles definem a comissão e a derrapagem como zero para fins de demonstração. A função handle_data é definida para garantir que a negociação ocorra a cada 15 minutos. A função run_strategy é criada como a função principal para executar a estratégia. A função chama context.universe.prices para obter os preços passados dos futuros selecionados e calcular os pesos antes do rebalanceamento. A função de rebalanceamento é usada para examinar todos os títulos do universo e fazer um pedido para atingir os pesos-alvo. O locutor também define uma função anônima para imprimir o portfólio de contexto e os pesos no final e cria uma classe chamada advisor para calcular o objeto de peso.

  • 00:40:00 O palestrante discute como definir os inputs para a classe advisor, incluindo o nome e a função do sinal, e como passar para o universo de seleção de ações. Eles também abordam como inicializar e armazenar o desempenho do consultor, bem como definir a função principal que chamará a função de sinal para gerar sinais para comprar ou vender ações. O palestrante enfatiza a importância de definir a função de sinal com base em indicadores técnicos, que podem ser expressos como funções ponderadas de preços passados. Eles também recomendam consultar artigos teóricos de especialistas na área, como Cliff Asness, da AQR Capital Management.

  • 00:45:00 O palestrante discute indicadores técnicos e sua correlação com o mercado com base na análise estatística por meio da análise de componentes principais. Os indicadores técnicos podem ser considerados como um tipo de filtro de preços ou retornos passados, filtrando dados de alta ou baixa frequência para captar tendências de longo ou curto prazo. No entanto, os indicadores técnicos podem ser profecias auto-realizáveis, tornando-os úteis para ganhar dinheiro, mas sujeitos a certas categorias de algoritmos de negociação que podem resultar em busca de impulso ou stop-loss. Além disso, apenas porque um indicador de momento mostra impulso, isso não significa necessariamente que o mercado está em movimento. Portanto, ter um portfólio de diferentes indicadores pode ser útil ao desenvolver e testar estratégias de negociação.

  • 00:50:00 O instrutor explica a importação da biblioteca de análise técnica e a lista de indicadores técnicos disponíveis. Eles usam o exemplo da função Bollinger Bands chamando a função de biblioteca 'Bbands' para retornar o valor da última linha e mostrar outras funções como RSI, MACD, suporte Fibonnaci, resistência, etc. O instrutor também explica a função 'gate price' e o função 'handle data' que é chamada para cada período para verificar se é hora de negociar. A função 'executar estratégia' então procura por argumentos apropriados usando a função 'conselheiro calcula preço do sinal', seguida pela função 'rebalancear' percorrendo todos os títulos no universo para fazer um pedido para atingir a porcentagem alvo. Finalmente, a função 'analyze' é usada para analisar a estratégia testada.

  • 00:55:00 O palestrante discute o gerenciamento de portfólios de estratégia para melhorar os lucros de negociação algorítmica. Em vez de confiar em uma única estratégia, o palestrante sugere executar várias estratégias simultaneamente ou em diferentes períodos de tempo. O palestrante oferece quatro métodos para gerenciar portfólios de estratégia: criação de um comitê, modelo de mudança de regime, alocação dinâmica e investimento baseado em fatores. Fazendo uma média, podemos melhorar a estabilidade do nosso sinal. O código da estratégia envolve adicionar um agente responsável pela escolha de consultores e alocação de capital. O agente utiliza uma função de pesagem para atualizar os pesos de cada orientador, que são levados em consideração na função de rebalanceamento.

  • 01:00:00 O palestrante explica como eles definem e pesam as carteiras com base no número de conselheiros, com alocação igual para todos eles. Eles mostram como criar consultores especializados separados e, em seguida, criar um agente para alocar capital entre eles. Eles executam um backtest usando o QuickBacktest, que mostra uma melhoria significativa no desempenho em comparação com os casos individuais. O palestrante enfatiza a importância do rebaixamento em uma estratégia de negociação e recomenda observar o índice Sortino e a estabilidade da curva de lucros e perdas. No geral, o portfólio de entrada de média ponderada igual melhorou significativamente o desempenho, mas o palestrante indica que ainda há espaço para melhorias.

  • 01:05:00 O palestrante discute um conceito chamado "negociação sem arrependimento", que envolve tentar determinar qual estratégia de investimento tem o melhor desempenho em um mercado onde é difícil prever tendências futuras. A estratégia envolve variar os pesos de cada investimento, em vez de depender de um investimento para superar os outros. O palestrante recomenda o uso do algoritmo de gradiente exponencial para determinar a ponderação, que ajusta o peso de acordo com a resposta da carteira aos cenários de mercado. O palestrante também sugere o uso dos critérios de Kelly para alocação de capital e maximização do retorno versus variância, com base no movimento browniano geométrico, para determinar a ponderação.

  • 01:10:00 O palestrante explica a saída dos pesos e como eles diferem para diferentes conselheiros. Eles então testam um sinal aleatório que, idealmente, deve receber menos alocação em comparação com outros sinais se a função for verdadeiramente aleatória. O palestrante também fala sobre a função de agente que pega uma lista de conselheiros e um parâmetro de taxa de aprendizado e calcula a função de peso. Ele percorre a lista de orientadores, calcula o sinal do orientador, adiciona-os por setor e envia o peso calculado de volta aos pesos do contexto. O palestrante conclui a seção com algumas diretrizes sobre o desenvolvimento de estratégias, incluindo evitar overfitting e alavancagem de conta corrente, e fornece uma lista de estratégias de demonstração para os espectadores explorarem.

  • 01:15:00 O palestrante discute as diferentes formas de testes futuros, incluindo negociação em papel ou negociação com uma pequena quantia de capital em um mercado ao vivo. Eles também mencionam que o BlueShift não oferece suporte a tocha PI ou notebook Jupiter no momento, mas planeja oferecer suporte a Keras e TensorFlow. Além disso, a plataforma não se limita aos mercados indianos e pode acessar dados de ações e câmbio dos EUA e da Índia. O palestrante também observa que o BlueShift não possui ferramentas de depuração integradas no momento, mas está considerando adicioná-las no futuro.

  • 01:20:00 O palestrante discute o backtesting de opções e explica que a maioria das plataformas que o oferecem não são confiáveis ou exigem muita limpeza e organização de dados. Eles também mencionam que os Gravitons indianos suportam apenas futuros líquidos e não permitem a alimentação de dados de terceiros. O período de tempo mínimo recomendado para backtesting depende da frequência de negociação e, embora dados de um minuto para os mercados indianos estejam disponíveis, as execuções de otimização não são eficientes devido à falta de tecnologia e à preferência por otimizar parâmetros com base nos retornos esperados. O Blue Shift não tem taxas e não há restrições quanto ao número de backtests separados que podem ser executados simultaneamente, desde que o tráfego do site possa acomodá-los. Também é possível fazer backtesting para PSA e usar pacotes Python, embora haja uma lista restrita de pacotes disponíveis por questões de segurança.
 

Estratégias de Negociação Forex | Desenvolver e testar ideias de negociação | Tutorial FX Completo



Estratégias de Negociação Forex | Desenvolver e testar ideias de negociação | Tutorial FX Completo

Durante este webinar informativo, o palestrante fornece uma visão geral abrangente do Quantiacs BlueShift, uma poderosa plataforma de desenvolvimento de estratégia para pesquisa sistemática de estratégia de negociação e backtesting. A plataforma oferece uma variedade de recursos e funcionalidades que a tornam uma ferramenta ideal para os traders.

BlueShift é uma plataforma baseada em nuvem, o que significa que os usuários podem acessá-la de qualquer lugar, permitindo-lhes desenvolver e analisar estratégias em movimento. Ele fornece aos usuários conjuntos de dados financeiros integrados, facilitando o acesso a dados de mercado relevantes para o desenvolvimento de estratégias.

Embora o webinar se concentre principalmente no mercado de câmbio (FX), a plataforma BlueShift também oferece suporte à negociação de ações e futuros em vários mercados. Ressalta que a propriedade intelectual das estratégias de backtesting desenvolvidas na plataforma é de inteira responsabilidade do usuário, garantindo sigilo e titularidade.

O palestrante se aprofunda na natureza do mercado de câmbio, destacando seu status como o maior mercado descentralizado, com um impressionante volume diário de negociação de aproximadamente 5 trilhões de dólares. Dentro desse volume, cerca de 300 bilhões de dólares podem ser atribuídos ao comércio varejista. O palestrante discute vários fatores que diferenciam o mercado de câmbio do mercado de ações, como maior alavancagem, oportunidades de venda mais fáceis e volatilidade relativamente menor.

Para entender o que impulsiona o mercado cambial, o palestrante destaca a importância de fatores macroeconômicos, como balanço de pagamentos, taxas de juros, inflação, crescimento econômico e políticas fiscais. Eles também mencionam que os fluxos corporativos e de hedge, bem como mudanças políticas e geopolíticas repentinas, podem ter um impacto considerável no mercado. No entanto, é importante observar que não existe uma metodologia padrão ou amplamente aceita para avaliar o mercado cambial. O palestrante menciona brevemente métodos como a paridade do poder de compra e a taxa de câmbio efetiva real, com técnicas mais avançadas preferidas por grandes instituições e pelo Fundo Monetário Internacional (FMI). Além disso, o palestrante enfatiza a importância dos mercados de financiamento de curto prazo na geração de liquidez e na determinação dos custos de rolagem overnight.

Quando se trata de desenvolver e testar estratégias de negociação forex, o palestrante apresenta várias abordagens. Modelos econômicos, como o modelo monetário e o modelo cambial de equilíbrio comportamental, usam métodos econométricos para analisar os dados. Modelos baseados em dados, incluindo previsão de séries temporais, séries temporais não lineares e redes neurais, também são discutidos como opções viáveis para negociação forex de curta duração. A plataforma BlueShift é apresentada como uma interface amigável que facilita o desenvolvimento e teste de estratégias. Os usuários podem inserir conjuntos de dados, capital inicial e descrições de metadados, entre outros detalhes. A plataforma fornece ferramentas para backtesting completo, bem como para executar backtests rápidos. Construído na API Zipline do Python, o BlueShift oferece um modelo de estratégia padrão para os usuários iniciarem seu processo de desenvolvimento.

O palestrante discorre sobre a estrutura básica das estratégias de negociação forex e as principais funções necessárias para o backtesting. Eles explicam a função "inicializar", que configura os parâmetros batistas e os parâmetros contábeis. A função "antes do início da negociação" é chamada uma vez por dia no início da sessão de negociação, seguida pela função "tratar dados", que é chamada a cada minuto para o mini conjunto de dados. Finalmente, a função "estratégia" é agendada usando a API para uma hora e data específicas, e as regras são definidas pelo usuário. Depois de executar um rápido backtest, os usuários podem acessar a guia Baptist para visualizar diferentes conjuntos de dados, incluindo a curva de patrimônio, folhas de teste e outras estatísticas.

A folha de rascunho, explicada pelo palestrante, fornece um conjunto de relatórios para análise de estratégias de negociação. Inclui parâmetros como a proporção Omega máxima, proporção Sortino, assimetria, curtose, estabilidade da série temporal e muito mais. O palestrante demonstra o fluxo de trabalho usando BlueShift, que envolve inicializar, passar por "antes do início da negociação" e "manipular dados" e utilizar várias funções de API, como agendamento, definição de comissões, definição de derrapagem e definição de moeda da conta. O palestrante menciona a disponibilidade de um modelo padrão para estratégias de negociação forex.

O palestrante menciona a disponibilidade de um modelo padrão para estratégias de negociação forex na plataforma BlueShift. Este modelo fornece um ponto de partida para os usuários desenvolverem suas estratégias, definindo suas regras de entrada e saída, parâmetros de gerenciamento de risco e outras opções de personalização.

A plataforma BlueShift também oferece uma ampla gama de indicadores técnicos integrados, incluindo médias móveis, osciladores e indicadores de acompanhamento de tendências, que podem ser usados para criar regras e sinais de negociação. Os usuários podem combinar esses indicadores com sua própria lógica personalizada para criar estratégias únicas e personalizadas.

Para validar e avaliar o desempenho de uma estratégia de negociação, o palestrante enfatiza a importância de realizar backtesting rigoroso. O BlueShift permite que os usuários testem suas estratégias usando dados históricos para simular cenários comerciais do mundo real. A plataforma fornece métricas de desempenho abrangentes, incluindo lucratividade, análise de rebaixamento, retornos ajustados ao risco e vários índices, como índice Sharpe, índice Sortino e índice Calmar.

Depois que uma estratégia é testada e validada, o palestrante sugere que a próxima etapa seja implantá-la em um ambiente de negociação ao vivo. A BlueShift oferece integração com diversas corretoras, permitindo que os usuários executem suas estratégias diretamente da plataforma. Essa integração perfeita garante uma transição suave do desenvolvimento da estratégia para a negociação ao vivo.

O palestrante conclui o webinar destacando os benefícios do uso do BlueShift para desenvolvimento de estratégia forex e backtesting. A plataforma oferece uma interface amigável, acesso a diversos conjuntos de dados financeiros e um conjunto abrangente de ferramentas e indicadores. Ele capacita os traders a desenvolver, testar e implantar suas estratégias de negociação forex com facilidade e eficiência.

O webinar fornece uma visão geral detalhada da plataforma BlueShift, seus recursos e sua aplicação no desenvolvimento de estratégias de negociação forex. Ele oferece informações valiosas sobre o mercado cambial, diferentes abordagens de modelagem e a importância de backtesting robusto. Os comerciantes que procuram aprimorar suas estratégias de negociação forex podem achar o BlueShift uma ferramenta valiosa em seu arsenal.

  • 00:00:00 O palestrante fornece uma visão geral do Quantiacs BlueShift, que é uma plataforma de desenvolvimento de estratégia para pesquisa de estratégia de negociação sistemática e backtesting. Ele inclui conjuntos de dados financeiros embutidos e está disponível na nuvem, para que os usuários possam desenvolver e analisar estratégias em qualquer lugar. O webinar se concentra principalmente em FX, mas também abrange ações e futuros em vários mercados, e a propriedade intelectual das estratégias de backtesting desenvolvidas pertence inteiramente ao usuário. O palestrante passa a descrever o mercado de câmbio, que é o mercado descentralizado mais proeminente, com um volume diário de aproximadamente 5 trilhões, dos quais 300 bilhões são de varejo. Os fatores que o diferenciam do mercado de ações incluem maior alavancagem, venda fácil e um menor nível de volatilidade, que o palestrante discutiu em detalhes.

  • 00:05:00 O palestrante discute o que impulsiona o mercado Forex, destacando fatores macroeconômicos como balança de pagamentos, taxas, inflação, crescimento econômico e política fiscal. Fluxos corporativos e de hedge, bem como eventos significativos como mudanças políticas e geopolíticas repentinas, também podem ter um impacto significativo no mercado. O palestrante observa que não existe uma metodologia padrão ou amplamente aceita para avaliar o mercado Forex, embora alguns métodos incluam a paridade do poder de compra e a taxa de câmbio efetiva real, com métodos mais avançados preferidos por grandes instituições e pelo FMI. O palestrante também enfatiza a importância dos mercados de financiamento de curto prazo, pois eles impulsionam a liquidez e determinam os custos de rolagem overnight.

  • 00:10:00 O palestrante discute diferentes abordagens para desenvolver e testar estratégias de negociação forex. Uma abordagem é por meio de modelos econômicos, como o modelo monetário e o modelo de taxa de câmbio de equilíbrio comportamental, ambos os quais usam métodos econométricos para analisar dados. Outros modelos orientados a dados, como previsão de séries temporais, séries temporais não lineares e redes neurais, também podem ser usados para negociação forex de curta duração. O palestrante então apresenta a plataforma BlueShift, que fornece aos usuários uma interface amigável para desenvolver e testar suas estratégias de negociação, permitindo que os usuários insiram conjuntos de dados, capital inicial e descrições de metadados, entre outras coisas, e então fornece ferramentas para backtesting e executando um backtest rápido. A plataforma é construída na API Zipline do Python e fornece um modelo de estratégia padrão para os usuários.

  • 00:15:00 O palestrante discute a estrutura básica das estratégias de negociação forex e as principais funções necessárias para o backtesting. A primeira função é chamada de "inicializar", que configura os parâmetros do Baptist e os parâmetros de contabilidade. A segunda função é "antes do início da negociação", que é chamada uma vez por dia no início da sessão de negociação, seguida por "tratar dados", que é chamada a cada minuto para o miniconjunto de dados. Finalmente, a função "estratégia" é agendada usando a API para uma hora e data específicas, e as regras são definidas pelo usuário. Depois de executar um batista rápido, o usuário pode acessar a guia batista para visualizar diferentes conjuntos de dados, incluindo a curva de patrimônio, planilhas e outras estatísticas.

  • 00:20:00 O palestrante discute a folha de rascunho e sua utilidade em fornecer um conjunto de relatórios para análise de estratégias de negociação. A folha de destaque inclui parâmetros como proporção máxima de Omega, proporção de Sortino, assimetria, curtose, estabilidade da série temporal e muito mais. O palestrante também explica o fluxo de trabalho usando o Blueshift, que começa com a inicialização, passando antes do início da negociação, manipulando dados e usando as funções úteis da API, como função de agendamento, definir comissões, definir slippage e definir a moeda da conta. Para o mercado de câmbio, está disponível um modelo padrão para começar, que inclui parâmetros para estratégias e importa dados como PIB, inflação, taxas curtas e longas do módulo financeiro no Zip Line.

  • 00:25:00 O palestrante discute como configurar um modelo básico para desenvolver estratégias de negociação forex. Eles explicam a importância de manter os parâmetros em um local central, definindo o universo e usando uma função agendada para computar rollovers. Eles também detalham como definir comissões e derrapagens e redefinir como calcular rollovers e indicadores técnicos. Eles mencionam a biblioteca de análise técnica como um recurso útil para acessar indicadores técnicos integrados. Por fim, eles enfatizam que a execução do backtest pode ser cancelada a qualquer momento e sugerem o uso desse modelo básico para começar a desenvolver estratégias mais complexas.

  • 00:30:00 O palestrante discute estratégias sistemáticas em forex e como elas giram em torno de encontrar e explorar fatores sistematicamente. Fatores de risco, como valor, impulso, carry e estratégias defensivas, são os quatro fatores básicos na negociação forex. O valor concentra-se na classificação das moedas em termos de avaliação, enquanto o momentum depende da diferença nas séries temporais e no momentum transversal para operar comprado nos títulos mais bem classificados e vendido nos classificados na parte inferior. As estratégias de carry exploram a diferença nas taxas de juros entre os pares de moedas. Finalmente, as estratégias defensivas presumem que as moedas de baixo risco estão subvalorizadas, enquanto as moedas de alto risco estão supervalorizadas e se concentram em retornos ajustados ao risco.

  • 00:35:00 O apresentador demonstra como desenvolver e testar várias ideias de negociação usando a plataforma BlueShift. Especificamente, ele introduz uma nova função chamada carry de função de sinal, que calcula o diferencial de taxas para cada par de moedas no universo de negociação e as classifica para assumir posições longas para os números superiores, posições curtas para os números inferiores e posições 0 para os outros. A mesma abordagem é aplicada aos fatores momentum e value, e uma estratégia de cesta de fatores também é criada combinando as três estratégias anteriores. O apresentador enfatiza que o esforço necessário para desenvolver diferentes estratégias é mínimo, pois envolve principalmente definir as funções de sinal relevantes e chamá-las nos locais apropriados na função de reequilíbrio.

  • 00:40:00 O palestrante explica como diferentes estratégias de negociação Forex podem ser criadas com o mínimo de trabalho usando um modelo que faz a maior parte do trabalho automaticamente. O palestrante também compartilha um espectro de estratégias que traça o tipo de estratégias que podem ser exploradas, dependendo do estilo de negociação de cada um, sejam eles um quant, um day trader técnico ou um trader fundamental. No eixo horizontal, o espectro mostra a gênese dos lucros de alguém, seja um mercado de tendências, um mercado de minerais, uma fuga ou um carry market, que é quase plano. O palestrante explica as diferentes estratégias de negociação para cada estilo de negociação, como estratégias de tipo de impulso, séries temporais e estratégias transversais e arbitragem estatística, entre outras.

  • 00:45:00 O palestrante discute a importância de combinar análise fundamental, técnica e quantitativa ao negociar Forex. Eles explicam que, embora a análise técnica e quantitativa seja normalmente mais fácil de implantar e criar confiança em estratégias sistemáticas, o maior valor de um estilo de negociação fundamental vem da negociação baseada em eventos. O palestrante descreve o ciclo de design para uma estratégia de negociação sistemática, que inclui selecionar um universo, gerar um sinal, decidir sobre um portfólio-alvo e analisar o desempenho para melhoria contínua. Eles também abordam a importância de evitar erros de back-testing, como viés de lookahead, e utilizar uma plataforma robusta como o Blueshift para back-testing uniforme.

  • 00:50:00 O palestrante discute as várias etapas envolvidas na criação de uma estratégia de negociação Forex, começando com a fase de concepção e passando para a fase de backtesting. Ele enfatiza a importância de criar estratégias não correlacionadas, pois duas
    estratégias são sempre melhores do que uma. O palestrante também menciona diferentes métodos para alocação de capital de risco, como critérios de LE, estratégias ponderadas por igualdade e ponderadas por momento. Além disso, ele fornece um exemplo de estratégia usando o indicador técnico Bollinger Bands e mostra as estatísticas impressionantes dos resultados do backtest. Ele conclui destacando a importância de medir a estabilidade do retorno da estratégia ao longo do tempo para garantir a consistência e evitar o overfitting.

  • 00:55:00 O palestrante discute várias estratégias de negociação que eles desenvolveram, incluindo uma estratégia baseada em momentum e uma estratégia de negociação em momentum baseada em correlação. Eles também oferecem um modelo "FX Daily" que calcula vários indicadores técnicos no início de cada dia e os usa para decidir se vai comprar ou vender. O palestrante enfatiza a importância de estratégias de back-testing de forma científica e evitando as armadilhas da otimização, onde uma estratégia pode ter um bom desempenho no back-testing, mas falhar na negociação ao vivo. O objetivo deve ser otimizar o desempenho ao vivo voltado para o futuro, em vez de testar o desempenho com base em um pequeno conjunto de variações.

  • 01:00:00 O palestrante discute a questão da otimização excessiva ao desenvolver e testar ideias de negociação. A otimização excessiva pode levar a uma diminuição no índice de Sharpe, resultando em negociação ao vivo ineficaz. O palestrante sugere quatro opções para combater esse problema. Uma sugestão é usar estratégias adaptativas que reajam às mudanças do mercado. Outra sugestão é usar soluções estatísticas, como análise de ponto de mudança ou modelos ocultos de Markov, para inverter estratégias com base nas mudanças do mercado. A terceira sugestão é fazer pesquisa de fator estável para identificar fatores que foram comprovados teórica e empiricamente para fornecer negócios lucrativos. Por fim, o palestrante recomenda o uso de testes fora da amostra, que envolvem testar o modelo em dados que não foram usados no processo de otimização para garantir que o modelo não seja superajustado.

  • 01:05:00 O vídeo discute a importância de extrair e isolar fatores que podem levar a retornos estáveis e consistentes na negociação forex. Um desses fatores é o momentum, que tem uma forte base empírica e pode ser uma boa estratégia em qualquer mercado, exceto em ocasionais quedas de momentum. O vídeo também fala sobre técnicas de validação, como a validação cruzada, que pode ser desafiadora no mercado FX, pois quebra a continuidade da série temporal. Em vez disso, os traders podem contar o número de sinais gerados e a duração de cada negociação para randomizar outro conjunto de sinais e compará-los com os testados para determinar o quão robusta é a estratégia. Além disso, o vídeo enfatiza que a automação não é uma caixa preta e que os traders devem entender os fatores subjacentes que impulsionam o P&L e os riscos envolvidos em cada estratégia.

  • 01:10:00 O palestrante sugere que a estratégia não é sobre homem versus máquina, mas sim sobre homem e máquina trabalhando juntos. O cérebro humano é mais adequado para desenvolver hipóteses, enquanto as máquinas são mais rápidas em persegui-las. Em termos de consultoria de desenvolvimento de estratégia para usuários da plataforma Blue Shift, o palestrante recomenda o uso de todos os parâmetros de estratégia no ambiente de contexto, verificando a alavancagem da conta, usando a função de agendamento para estratégias semanais ou diárias, testando os resultados da prática e verificando o overfitting. Os usuários também são incentivados a experimentar as estratégias específicas de Forex disponíveis na conta Github da plataforma e procurar suporte, se necessário. Finalmente, Liza da FXCM convida os usuários a contatá-los para qualquer dúvida que possam ter sobre os dados do mercado FX.

  • 01:15:00 O palestrante responde a diversas perguntas dos usuários, como se a sessão será gravada (sim), se podem negociar ao vivo (não) e se falarão sobre testes de plataformas e estratégias (já respondidas). Eles também afirmam que atualmente cobrem os mercados de ações dos EUA e da Índia, bem como as 10 principais moedas por meio do fxcm, mas planejam adicionar criptomoedas em breve. O palestrante também aborda a questão da depuração, mencionando que, embora eles não tenham um bom depurador no momento, instruções básicas de impressão podem ser usadas. Por fim, eles mencionam que o Python não permite "fornecimento não registrado", mas não entende o que o usuário quer dizer com isso.

  • 01:20:00 O palestrante discute a dificuldade de encontrar uma pequena quantidade de dados históricos que cubram com precisão todos os movimentos de mercado esperados no mercado cambial devido à sua estreita ligação com fatores macroeconômicos. É um desafio definir um conjunto de dados que possa representar todas as condições de mercado esperadas. Embora o palestrante não possa recomendar nenhum livro específico para iniciantes aprenderem a negociar forex, ele sugere seguir artigos de pesquisa de bancos centrais, como o FMI, que fornece relatórios orientados a moedas estrangeiras que são um bom ponto de partida para iniciantes. Em termos de negociação de alta frequência, o envio de milhares de pedidos por segundo geralmente não é sustentável para os comerciantes de varejo, e o palestrante não sugere dividir os dados em testes dentro e fora da amostra. Em vez disso, recomenda-se o teste aleatório para gerar sinais aleatórios.

  • 01:25:00 O palestrante discute backtesting e investimento baseado em fatores. Eles enfatizam a importância de analisar os sinais e a duração das negociações no backtesting para obter uma melhor compreensão dos resultados. Eles também discutem os riscos potenciais do investimento baseado em fatores, como superlotação e o fato de que os fatores são beta, o que significa que eles não funcionam de forma consistente. No entanto, eles sugerem que o investimento baseado em fatores pode ser bom para indivíduos não técnicos a longo prazo. O palestrante também aborda questões sobre o conhecimento estatístico necessário para negociação e a disponibilidade de bibliotecas Python adicionais para análise. Eles concluem que, embora o conhecimento básico de Python seja útil, o foco deve estar no desenvolvimento da lógica da estratégia, e não no conhecimento da linguagem de programação. No entanto, atualmente não há funções incorporadas disponíveis para reamostragem em intervalos de 15 minutos devido a possíveis problemas de desempenho e alinhamento.

  • 01:30:00 O palestrante acredita que é melhor criar recifes e ampolas, armazená-los em um banco de dados e fornecê-los como uma saída pronta, em vez de criar uma biblioteca de amostragem misteriosa para que os usuários possam usá-los com mais eficiência. Em termos de estratégias de ação de preço, o palestrante adverte que você precisa de pelo menos nível dois ou dados superiores para desenvolvê-los de forma eficaz. Além disso, eles afirmam que os dados atuais disponíveis não são suficientes para criar estratégias eficientes de ação de preço e que podem não ser capazes de fornecê-los tão cedo. Quando perguntado sobre os regulamentos legais sobre negociação de pares de moedas fora da MCX, o palestrante afirma que é preciso ter validação para fins de investimento ou hedge e que eles não sabem muito além disso.

  • 01:35:00 O palestrante explicou o processo de combinar indicadores técnicos em uma estratégia de negociação e testá-los usando uma conta demo antes de implementá-los em uma situação real de mercado. O palestrante enfatizou que os traders devem escolher indicadores que se complementem em vez daqueles que são semelhantes e devem estar cientes da importância de cada indicador na estratégia. A conta demo permite que os traders testem sua estratégia em diferentes cenários e avaliem sua eficácia antes de arriscar fundos reais.
 

Como a EPAT pode te ajudar! por Nitesh Khandelwal - 28 de junho de 2018



Como a EPAT pode te ajudar! por Nitesh Khandelwal - 28 de junho de 2018

Nitesh Khandelwal, o palestrante, apresenta a si mesmo e sua empresa, a ConTeSt, como fornecedora de educação algorítmica e quantitativa nos últimos oito anos. Ele começa compartilhando sua experiência pessoal, desde seus dias de engenharia até sua experiência no setor bancário. Em seguida, ele destaca o lançamento do Executed Program Algorithmic Trading (EPAT), um programa de seis meses que oferece consultoria, treinamento e uma transição suave para a negociação no domínio de negociação de alta frequência (HFT). Khandelwal cita sua experiência em Cingapura, onde montou testes para bolsas mundiais e expandiu os negócios em escala global.

Seguindo em frente, Khandelwal discute o comércio algorítmico e seu crescimento em comparação com o comércio DIY (faça você mesmo). Ele compartilha estatísticas que indicam o aumento significativo do comércio algorítmico na Ásia, Europa e Estados Unidos, destacando como os comerciantes agora preferem tomar suas próprias decisões comerciais em vez de depender de corretores. No entanto, ele observa que, embora o comércio algorítmico constitua uma parte significativa da atividade de mercado na Índia, a participação do varejo permanece relativamente baixa. Khandelwal faz referência a um artigo da Bloomberg que explora o papel crescente dos robôs na substituição de empregos financeiros.

Khandelwal continua explicando por que os comerciantes de varejo não conseguiram adotar o comércio algorítmico e sugere maneiras de garantir que ele se torne um facilitador em vez de uma ameaça. Ele enfatiza a necessidade de conhecimento estatístico e técnico, acesso a dados de mercado de qualidade e corretores eficientes e orientação de profissionais na transição para a automação. Ele explica como o EPAT foi criado para atender a essas necessidades e fornecer orientação aos indivíduos interessados em negociar algo ou automatizar suas estratégias.

Em seguida, Khandelwal discute os recursos do EPAT. Ele menciona que o programa oferece conteúdo rico criado por profissionais, especialistas de domínio e gestores de fundos líderes. O currículo é continuamente atualizado para se alinhar com os requisitos do mercado, e o acesso vitalício ao conteúdo atualizado é fornecido. O EPAT inclui uma equipe de suporte dedicada para resolver dúvidas, orientação do corpo docente para ex-alunos e uma célula de carreira que auxilia em oportunidades de emprego, criação de mesas de negociação, localização de corretores e fornecedores de dados relevantes e muito mais. Além disso, os participantes do EPAT obtêm acesso a recursos exclusivos disponíveis apenas para eles.

Khandelwal destaca a importância do módulo cartilha no EPAT, que garante que todos os participantes iniciem o curso na mesma página. O módulo básico abrange os fundamentos do Excel, Python, estatísticas e mercados financeiros, que são blocos de construção fundamentais da negociação algorítmica. Ele explica como o módulo primer evolui ao longo do tempo para fornecer a extração máxima de valor do programa. Além disso, Khandelwal discute a relevância do Python como a linguagem de programação mais amplamente utilizada na negociação algorítmica e de peões, levando à sua inclusão no programa EPAT.

O orador então se aprofunda nos diferentes módulos abordados no EPAT e como eles são abordados. O programa abrange análise e modelagem de dados em Python, metodologias estatísticas avançadas, efeitos de ações e estratégias futuras e aprendizado de máquina para negociação. Khandelwal enfatiza a importância de entender a infraestrutura e as operações por trás das estratégias de negociação, bem como estratégias de negociação de opções, otimização de portfólio e risco operacional na negociação algorítmica. Ele também destaca a importância de concluir um projeto sob a orientação de um especialista no domínio e fazer o exame EPAT para obter um certificado verificado.

Khandelwal fornece uma visão geral do programa de certificação EPAT, que dura mais de seis meses e inclui mais de 100 horas de conexão em sala de aula, experiência prática e mais de 300 horas de curso. Ele menciona os ilustres membros do corpo docente que ministram o programa, incluindo profissionais, acadêmicos e traders de sucesso. O programa oferece oportunidades de colocação e auxilia os participantes na preparação de currículos e entrevistas, identificação de lacunas de habilidades e acesso a parceiros de colocação, como corretores e bancos de investimento. Os participantes do EPAT também obtêm acesso a dados privilegiados de corretoras e provedores de API, bem como ferramentas avançadas de backtesting, como o simulador Contra Blue.

Além disso, Khandelwal discute os benefícios do EPAT e como ele agrega valor aos participantes. Ele menciona o acesso a dados minuciosos dos mercados indianos e ações do S&P 500, oportunidades de aprendizado contínuo, assistência profissional e reuniões de ex-alunos. Ele enfatiza que o EPAT vai além de apenas um certificado e fornece uma dimensão quantitativa fundamental para os conjuntos de habilidades existentes. Khandelwal esclarece que o EPAT se concentra em ensinar aos participantes como criar e validar estratégias de negociação, em vez de fornecer estratégias de trabalho prontas. Ele reconhece que a taxa de sucesso das estratégias varia dependendo de fatores como acesso à infraestrutura, gerenciamento de risco e apetite por risco.

Khandelwal aborda uma questão sobre se os analistas técnicos podem automatizar suas negociações usando estratégias como cruzamentos MACD, médias móveis e RSI depois de estudar EPAT. Ele confirma que o programa abrange essas estratégias, garantindo que os participantes tenham o conhecimento e as ferramentas para automatizar suas negociações.

O palestrante passa a discutir os investimentos necessários para iniciar sua própria mesa de negociação algorítmica e explica que o imposto para analistas depende da frequência da mesa. Ele menciona que o EPAT se concentra principalmente em negociações de baixa e média frequência, mas também cobre aspectos de estratégias de alta frequência. O programa combina Python, Excel, R e MATLAB e requer habilidades de programação e clareza conceitual. EPAT fornece orientação para os alunos configurarem suas próprias mesas de negociação. Embora a EPAT não garanta vagas de emprego, ela oferece orientação aos ex-alunos que a procuram.

Khandelwal esclarece que, embora o EPAT não forneça garantias de colocação, eles oferecem aconselhamento para garantir que os candidatos tenham uma compreensão básica da negociação algorítmica antes de se inscreverem no programa. Ele destaca o sucesso de muitos estudantes do EPAT que buscam ativamente conseguir empregos ou fazer mudanças de carreira devido à extensa rede de parceiros de colocação do programa. Refere que o sistema de gestão da aprendizagem da EPAT dá acesso vitalício a todas as sessões e conteúdos atualizados, sendo que o curso exige uma carga horária de cerca de 300 horas, que pode ser repartida ao longo de três meses com a dedicação de uma hora diária. Khandelwal enfatiza que o foco do EPAT na implementação prática o diferencia de cursos mais teóricos.

Khandelwal discute a estrutura de taxas para o curso EPAT, que é de US$ 4.720 para mercados desenvolvidos e INR 189.000 mais GST para a Índia. Ele também menciona a necessidade de corretores e APIs para codificar estratégias e explica que os participantes podem esperar assistência profissional em Hong Kong, embora a equipe EPAT tenha tido mais sucesso na Índia e em Cingapura. Ele aconselha que, embora os módulos EPAT sejam interdependentes e devam ser considerados como um todo, uma a duas horas de esforço diário devem ser suficientes para aqueles com conhecimento comercial limitado. Ele conclui mencionando que o curso EPAT abrange todos os tipos de paradigmas de estratégia de negociação e oferece oportunidades de trabalho remoto para participantes e ex-alunos.

Nas considerações finais, o palestrante destaca que o programa EPAT é abrangente e fornece acesso completo a todos os módulos, tornando-o valioso para indivíduos com experiência em tecnologia que desejam entrar no campo de negociação algorítmica. Eles mencionam as várias oportunidades de trabalho disponíveis no domínio, com muitos casos de participantes do EPAT iniciando seus próprios empreendimentos ou garantindo empregos em empresas de destaque após a conclusão do programa. O palestrante enfatiza a importância de entender estatísticas básicas, correlação e regressão para ter sucesso neste campo. Por fim, eles enfatizam que as estratégias de negociação automatizada geram lucro e respondem por quase 50% dos volumes gerais na Índia, indicando o potencial significativo para os interessados em negociação algorítmica.

  • 00:00:00 Nitesh Khandelwal apresenta a si mesmo e sua empresa, ConTeSt, que fornece educação algorítmica e quantitativa nos últimos oito anos. Ele também compartilha sua experiência pessoal, desde seus dias de engenharia até sua experiência no setor bancário e, finalmente, lançando o Executed Program Algorithmic Trading (EPAT), um programa de seis meses que fornece consultoria, treinamento e uma transição suave para a negociação no domínio de negociação de alta frequência (HFT). Khandelwal também discute brevemente sua experiência em Cingapura na criação de testes para bolsas em todo o mundo e na expansão do negócio de uma perspectiva global.

  • 00:05:00 Nitesh Khandelwal fala sobre sua experiência com a Core Density e como eles estão agregando mais valor ao seu público e participantes no setor de negociação quantitativa. Ele então pergunta ao público se eles já negociaram antes e compartilham trechos de documentos regulatórios sobre a definição de negociação algorítmica, como a definição do Securities Exchange Board of India e os regulamentos MiFID II na Europa. Khandelwal explica que a negociação sistemática é considerada negociação algorítmica quando é automatizada e utiliza algoritmos específicos.

  • 00:10:00 Nitesh Khandelwal discute a negociação algorítmica e a compara à negociação DIY (faça você mesmo). A negociação algorítmica cresceu significativamente na Ásia, de alguns pontos percentuais em 2004 para mais de 30% em 2016, e agora representa 66% das negociações nos EUA e 44% na Europa. O aumento da negociação algorítmica foi proporcional ao número de traders que agora estão tomando suas próprias decisões de negociação e não confiando em seus corretores. No entanto, enquanto o comércio algorítmico representa 30-45% da atividade do mercado na Índia, a participação do varejo é estimada em apenas cerca de 2%. Khandelwal então menciona um artigo da Bloomberg destacando como os robôs estão cada vez mais substituindo vários papéis no mercado de trabalho financeiro.

  • 00:15:00 Nitesh Khandelwal explica por que os comerciantes de varejo não conseguiram adotar a negociação algorítmica e o que pode ser feito para garantir que ela se torne um facilitador em vez de uma ameaça. Ele destaca que a negociação quantitativa ou automatizada requer conhecimento estatístico e técnico e acesso a dados de mercado e mercados de qualidade por meio de corretoras eficientes. A orientação do profissional também é crucial ao fazer a transição para a automação, especialmente porque há muitos fatores dos quais os traders precisam estar cientes. Khandelwal discute como o EPAT foi criado para atender a essas necessidades e oferece orientação para aqueles que desejam buscar algo ou automatizar suas estratégias.

  • 00:20:00 Nitesh Khandelwal discute os recursos do EPAT. O programa consiste em conteúdo rico criado por profissionais, especialistas de domínio e gestores de fundos líderes. O currículo é continuamente atualizado para se manter alinhado com as exigências do mercado, e é oferecido acesso vitalício a conteúdos atualizados. O programa oferece uma equipe de suporte dedicada que resolve dúvidas dentro de um período definido, e os ex-alunos recebem orientação do corpo docente na resolução de dúvidas. O EPAT apresenta uma célula de carreira que ajuda a encontrar oportunidades de emprego, configurar mesas de negociação, encontrar corretores relevantes, fornecedores de dados ou colaborações e muito mais. Adicionalmente, o programa inclui funcionalidades exclusivas disponíveis apenas para participantes EPAT.

  • 00:25:00 Nitesh Khandelwal discute como o módulo de iniciação desempenha um papel crucial em garantir que todos os participantes do programa EPAT estejam na mesma página antes de iniciar o curso. O módulo básico abrange os fundamentos do Excel, Python, estatísticas e mercados financeiros, que são os blocos de construção da negociação algorítmica. Khandelwal explica como o primer evolui para se tornar mais interativo com o tempo para garantir a máxima extração de valor do programa. Além disso, Khandelwal lança luz sobre como o Python se tornou a linguagem de programação mais relevante no comércio algorítmico e no mundo do comércio de penhores nos últimos anos, razão pela qual eles substituíram C++ e Java por Python em seu programa.

  • 00:30:00 Nitesh Khandelwal discute os diferentes módulos que são abordados no EPAT e como eles são abordados. O primeiro módulo envolve análise e modelagem de dados em Python, que aborda tópicos como como obter dados usando diferentes APIs, como analisar e usar os dados em sua estratégia e como codificar a estratégia e enviar ordens. O módulo então passa a cobrir metodologias estatísticas mais avançadas, como ARIMA, modelos ARCH e modelos de mistura gaussiana. Em seguida, é introduzido o módulo de efeitos de patrimônio e estratégias de futuros, que abrange diferentes estratégias de execução, otimização e arbitragem de momentum/estatística. O vídeo termina com uma discussão sobre aprendizado de máquina para negociação, que se tornou cada vez mais popular e regularmente abordado no curso EPAT.

  • 00:35:00 Nitesh Khandelwal explica a importância de entender a infraestrutura e as operações por trás das estratégias de negociação, usando a analogia de um piloto de F1 que precisa entender o interior de seu carro. Ele também aborda tópicos como estratégias de negociação de opções de uma perspectiva de gerenciamento de risco, otimização de portfólio e a importância do risco operacional na negociação algorítmica. Além disso, ele enfatiza a importância de concluir um projeto sob a orientação de um especialista de domínio relevante e fazer o exame EPAT para obter um certificado verificado para indústrias.

  • 00:40:00 Nitesh Khandelwal discute o programa de certificação EPAT, que é composto por mais de 100 horas de conexão em sala de aula, experiência prática e mais de 300 horas de cursos a serem concluídos em um período de seis meses. O programa é ministrado por um grupo de professores ilustres que contribuíram significativamente para a indústria de negociação algorítmica, com uma mistura de profissionais, acadêmicos e comerciantes de sucesso entre suas fileiras. Os membros do corpo docente trazem os principais especialistas do setor como palestrantes convidados, e o programa de certificação EPAT também inclui oportunidades de colocação.

  • 00:45:00 Nitesh Khandelwal discute as maneiras pelas quais o programa EPAT pode ajudar seus participantes, incluindo currículo e preparação para entrevistas, identificando lacunas de habilidades e preenchendo-as e fornecendo acesso a parceiros de colocação, como grandes corretoras e bancos de investimento. Os participantes do EPAT também têm acesso a dados privilegiados de corretoras e provedores de API, alguns oferecendo negociação gratuita por tempo limitado. O programa oferece reconhecimento e agrega valor aos seus graduados por meio de eventos e sessões exclusivas, acesso subsidiado a corretores e APIs e ferramentas avançadas de back-testing, como o simulador ContraBlue.

  • 00:50:00 Nitesh Khandelwal explica alguns dos benefícios do EPAT, como acesso a dados de minuto para mercados indianos e ações S&P 500, aprendizado contínuo, assistência profissional e reuniões de ex-alunos. Ele enfatiza que o EPAT é mais do que apenas um certificado e que adiciona uma dimensão quantitativa fundamental aos conjuntos de habilidades existentes. Khandelwal também esclarece que o EPAT não se trata de fornecer estratégias de trabalho, mas de aprender como criá-las e validá-las. Ele aborda uma questão sobre a taxa de sucesso das estratégias e explica que varia de pessoa para pessoa, dependendo de fatores como acesso à infraestrutura, gerenciamento de riscos e apetite ao risco. Por fim, Khandelwal responde a outra pergunta sobre se os analistas técnicos podem automatizar suas negociações usando estratégias como cruzamentos MACD, médias móveis e RSI após estudar o EPAT, ao qual ele confirma que é abordado no programa.

  • 00:55:00 Nitesh Khandelwal discute os investimentos necessários para iniciar sua própria mesa de negociação algorítmica e como o imposto para analistas dependerá da frequência da mesa. Ele menciona que o EPAT se concentra principalmente em formas de negociação de baixa e média frequência, mas também possui alguns aspectos de estratégias de alta frequência. O curso de negociação combina Python, Excel, R e MATLAB. O programa requer habilidades de programação e clareza de nível conceitual e fornece orientação para os alunos montarem suas próprias mesas. Embora a EPAT não ofereça nenhuma garantia de colocação profissional, ela oferece orientação aos ex-alunos que a procuram.

  • 01:00:00 Nitesh Khandelwal esclarece que, embora o EPAT não ofereça nenhuma garantia de colocação, eles fornecem aconselhamento para garantir que os candidatos tenham uma ideia básica de negociação algorítmica antes de se inscreverem no programa. A EPAT tem sido bem-sucedida em ajudar muitos de seus alunos que procuram ativamente a conseguir um emprego ou fazer uma mudança de emprego devido à sua vasta rede de quase uma centena de parceiros de colocação que valorizam o conhecimento e as habilidades práticas de implementação ensinadas neste nicho e curso orientado para o profissional. . O sistema de gestão da aprendizagem da EPAT proporciona acesso vitalício a todas as sessões e conteúdos atualizados, sendo que o curso exige uma carga horária de cerca de 300 horas, que pode ser repartida ao longo de três meses com a dedicação de uma hora diária. Khandelwal enfatiza que o foco do EPAT na implementação prática da negociação algorítmica o diferencia de outros cursos mais teóricos.

  • 01:05:00 Nitesh Khandelwal discute a estrutura de taxas para o curso EPAT, que é $ 4.720 para mercados desenvolvidos e INR 189.000 mais GST para a Índia. Ele também menciona a necessidade de corretores e APIs para codificar estratégias e explica que os participantes podem esperar assistência profissional em Hong Kong, mas a equipe EPAT teve mais sucesso na Índia e em Cingapura. Khandelwal enfatiza que os módulos do EPAT são interdependentes e devem ser vistos como um todo, mas afirma que uma a duas horas de esforço diário devem ser suficientes para aqueles com muito pouco conhecimento comercial. O curso EPAT abrange todos os tipos de paradigmas de estratégia de negociação e oferece oportunidades de trabalho remoto para participantes e ex-alunos.

  • 01:10:00 O palestrante fala sobre como o programa EPAT é abrangente e fornece acesso completo a todos os módulos, tornando-o valioso para participantes com experiência em tecnologia que desejam entrar no campo de negociação algorítmica. Eles destacam as diferentes oportunidades de trabalho disponíveis no domínio, com inúmeros casos de participantes iniciando seus próprios empreendimentos ou conseguindo empregos em grandes empresas após a conclusão do programa. Além disso, o palestrante enfatiza a importância de conhecer estatísticas básicas, entender a correlação e a regressão para ter sucesso nesse domínio. Por fim, eles sugerem que as estratégias de negociação automática geram dinheiro e respondem por quase 50% dos volumes gerais na Índia, indicando que esse campo tem um potencial significativo para os interessados.

  • 01:15:00 Nitesh Khandelwal discute o programa EPAT, um programa orientado para a prática ensinado por profissionais que trabalham nos mercados ao redor do mundo. Ele aconselha os comerciantes novatos a ler e aprender mais sobre os mercados e sugere que acessem os blogs e webinars fornecidos pelo programa EPAT. Ele também menciona que o MCX permite a negociação de algo e discute os requisitos de infraestrutura necessários para a criação da própria mesa de operações, pois depende da frequência das negociações e dos requisitos regulatórios. Além disso, Khandelwal menciona que a EPAT tem ex-alunos em partes da Nigéria e da África e aconselha os interessados no programa a entrar em contato com a equipe de negócios para obter mais informações.

  • 01:20:00 O palestrante explica que eles oferecem um sistema de gerenciamento de aprendizado para seu programa online, onde os alunos matriculados podem acessar todas as palestras, gravações, testes, questionários e tarefas. O programa é totalmente online, portanto não há obrigatoriedade de frequência presencial. O salário dos calouros depende de sua formação, habilidades e histórico acadêmico, mas na Índia pode variar de 500.000 a 2 milhões de rúpias por ano. O programa cobre testes em diferentes plataformas e oferece suporte à automação completa. O curso é ministrado por instrutor e acontece semanalmente. Embora não seja individualizado, os alunos terão acesso às gravações e poderão revisitá-las posteriormente se perderem uma aula. O palestrante também sugere que pode haver oportunidades de trabalho remoto disponíveis.

  • 01:25:00 Nitesh Khandelwal responde a algumas perguntas finais sobre o programa EPAT. Uma pergunta é sobre o número de treinadores baseados na Índia, e Khandelwal estima que cerca de 50% são da Índia, com o restante vindo de vários países ao redor do mundo. Outra pergunta é se existem corretores ou instituições com sede no Reino Unido trabalhando com o programa, e Khandelwal confirma que existem corretores com sede no Reino Unido. Ele incentiva os espectadores a entrar em contato com a equipe EPAT se tiverem mais dúvidas ou precisarem de ajuda. No geral, Khandelwal enfatiza o valor do programa EPAT em ajudar os indivíduos a alcançar seus objetivos de carreira e aprendizado.
 

AMA sobre negociação algorítmica | Por Nitesh Khandelwal



AMA sobre negociação algorítmica | Por Nitesh Khandelwal

Nesta sessão "pergunte-me qualquer coisa" sobre negociação algorítmica, Nitesh Khandelwal, co-fundador da empresa de negociação de algo Eragy, dá as boas-vindas ao público e compartilha sua experiência no assunto. A sessão visa cobrir vários aspectos da negociação algorítmica, incluindo plataformas e corretoras, estratégias de negociação, dados de mercado, oportunidades de trabalho, criação de uma mesa de negociação algorítmica, regulamentos, o futuro da negociação algorítmica e oportunidades de aprendizado e educação. Khandelwal menciona que a sessão encontrará um equilíbrio entre perguntas pré-preparadas e perguntas ao vivo, e também oferece sessões individuais de acompanhamento para perguntas não respondidas.

O apresentador começa explicando diferentes estratégias de negociação, como negociação de baixa frequência, média frequência e alta frequência. Essas estratégias são definidas com base na latência da infraestrutura de negociação e no tempo de processamento de pedidos. O foco é enfatizar que a latência da estratégia de negociação é mais importante do que o número de negociações executadas por segundo. A seção então investiga onde obter dados de mercado e dados econômicos, discutindo diferentes fornecedores de dados, como Yahoo Finance, Google Finance, Quandl, Alpha Vantage e FXCM. Esses fornecedores oferecem dados para download ou dados que podem ser usados em suas plataformas.

Seguindo em frente, o palestrante discute as fontes de dados para negociação algorítmica, incluindo downloads manuais, busca de API e fornecedores pagos, como Quandl, Global Data Feed, Trading Economics, Thomson Reuters e Active Financial. Eles também abordam a questão de saber se os traders de alta frequência (HFT) geralmente superam os day traders manuais, explicando que isso depende do tipo de day traders sendo analisados. Se os traders estiverem aproveitando as oportunidades de arbitragem ou ineficiências do mercado, as máquinas podem ser mais rápidas do que os traders manuais. No entanto, se os traders estiverem analisando dados e executando ordens manuais após uma pesquisa minuciosa, as máquinas não são necessariamente mais eficientes. O palestrante descarta a ideia de que um mercado excessivamente negociado por algo é contraproducente, esclarecendo que a automação nem sempre requer negociação de alta frequência.

O conceito de usar algoritmos na negociação, conhecido como "cotovelos", é explicado. Envolve negociação com mais eficiência e pode ser automatizado e quantificado usando fórmulas matemáticas. No entanto, encontrar ineficiências de mercado pode ser um desafio, e a concorrência no comércio de alta frequência e na infraestrutura de tecnologia está se tornando mais cara. O palestrante também aborda a questão de como lidar com várias estratégias em uma conta de corretagem para o FBI.

Os pré-requisitos para negociação algorítmica são discutidos, envolvendo conhecimento de estatística e econometria, computação financeira e negociação quant. O apresentador menciona que quem está começando do zero pode conhecer esses pilares por meio de recursos disponíveis gratuitamente no site da Quant. Para traders já familiarizados com estratégias de negociação e que procuram automatizar, eles podem começar usando uma API de corretor e, eventualmente, construir sua própria plataforma. O palestrante também explica os vários provedores de dados para dados de ticks e menciona que, embora a maioria dos fornecedores forneça dados instantâneos, fornecedores de ponta podem fornecer dados de ticks verdadeiros a um custo mais alto. Por fim, observa-se que, para os comerciantes que já são bem-sucedidos com suas estratégias de negociação atuais, aprender a negociar algo pode não ser necessário, a menos que eles queiram continuar atualizando e experimentando.

Os benefícios de automatizar estratégias de negociação são discutidos, incluindo o controle de emoções, escalabilidade e largura de banda para trabalhar em estratégias enquanto as máquinas lidam com a execução. O palestrante enfatiza a importância de ter experiência em programação para o sucesso na negociação algorítmica e destaca que o Python é amplamente utilizado pela maioria das empresas em todo o mundo. No entanto, o palestrante informa que a negociação de alta frequência não é adequada para comerciantes de varejo, e algumas estratégias podem exigir uma quantidade razoável de capital antes de obter sucesso. No entanto, mesmo com conhecimento básico de Python, pode-se começar na negociação algorítmica.

As habilidades necessárias para se tornar um comerciante algorítmico são discutidas, incluindo conhecimento de estatísticas, econometria e estratégias de negociação. O palestrante também explica as várias oportunidades de carreira na negociação algorítmica, desde funções de back-office até funções de negociação de front-office. Eles mencionam que indivíduos com experiência em software e ciência de dados podem se aventurar na negociação de algo, pois sua experiência já fornece uma base sólida e pegar o lado do mercado financeiro deve ser relativamente mais fácil. O palestrante também menciona um blog sobre um ex-aluno de 40 anos da QuantInsti que fez a transição com sucesso para negociação algorítmica sem experiência anterior em negociação. O QuantInsti é destacado como uma instituição que oferece uma célula de carreira dedicada para ajudar os indivíduos a adquirir as habilidades necessárias e se conectar com as pessoas certas para avançar em suas carreiras.

O palestrante passa a discutir linguagens algorítmicas de negociação e sua importância em pesquisa e análise. Embora as empresas de negociação de alta frequência prefiram usar C++ para menor latência, para backtesting e avaliação de estratégia, R e Python são escolhas mais populares. Em resposta à pergunta de um usuário sobre como melhorar a taxa de acertos e gerenciar perdas consecutivas, o palestrante sugere a otimização dos parâmetros no backtesting e a utilização de negociação dentro e fora da amostra para verificar a redução. A saturação do mercado também é abordada, com o palestrante afirmando que o índice HFT serve como um indicador de concorrência e que as estratégias de arbitragem simples podem não ser bem-sucedidas em mercados altamente saturados.

Diferentes estratégias de negociação algorítmica são mais exploradas, destacando a necessidade de uma infraestrutura de tecnologia forte para arbitragem simples e estratégias de criação de mercado. O palestrante aborda várias questões do público, incluindo o significado da quantidade total de bits, o impacto dos HFTs nos comerciantes tradicionais na Índia e o horizonte de tempo usado para analisar dados para negociação de algo. Eles explicam que o horizonte de tempo depende da frequência de negociação. Além disso, o palestrante incentiva os indivíduos com experiência em software e ciência de dados a se aventurarem na negociação de algo, afirmando que sua experiência já fornece uma base sólida e que entrar no mercado financeiro deve ser relativamente mais fácil.

Nitesh Khandelwal aborda várias questões relacionadas à possibilidade de configurar uma plataforma de negociação com sua empresa, aprovação legal para automação, custos e regulamentações do mercado indiano. Eles esclarecem que sua empresa fornece orientação e suporte vitalício aos participantes e ex-alunos, mas não oferece serviços de consultoria. A automação é possível e os custos dependem da infraestrutura necessária. Em países como a Índia, cada estratégia de negociação precisa de aprovação antes da automação, e somente o corretor pode fazer isso em nome do comerciante. O uso de indicadores estocásticos e fundamentais em estratégias é discutido, mencionando que eles podem ser usados manualmente ou por meio de software. O palestrante também menciona a disponibilidade de ferramentas para leitura de notícias legíveis por máquina e dados econômicos para criar algoritmos.

A sessão investiga se as pessoas na Índia podem se envolver em negociações de alta frequência (HFT) para mercados não indianos e se a HFT afasta os comerciantes de varejo dos mercados. Em relação aos mercados não indianos, é explicado que o envio de dinheiro para produtos de margem comercial listados em bolsas estrangeiras não é permitido pelo esquema LRS, a menos que haja aprovação do RBA. No entanto, se uma empresa global terceirizar parte de seu comércio para uma empresa indiana, isso pode ser possível. Em relação ao impacto do HFT nos comerciantes de varejo, é mencionado que a presença de HFTs adiciona liquidez ao mercado e reduz os spreads, o que beneficia os comerciantes de varejo. No entanto, atividades ilegais como front running não devem ser permitidas, independentemente do domínio.

O palestrante enfatiza que o comércio de alta frequência (HFT) não prejudica os comerciantes de varejo individuais, pois eles normalmente usam navegadores baseados na web que inerentemente têm uma latência integrada de algumas centenas de milissegundos. Mesmo que as empresas de HFT usem métodos ilegais para obter acesso mais rápido, isso não afetaria o varejista, mas prejudicaria outras empresas de HFT que seguem as regras. O palestrante enfatiza que os comerciantes de varejo geralmente se beneficiam do mercado eficiente criado pelo HFT, pois elimina oportunidades de arbitragem. O palestrante também aborda uma questão sobre como aprender negociação algorítmica em inglês e discute alguns componentes importantes para uma negociação consistentemente lucrativa.

O vídeo ressalta a importância de estratégias de negociação em constante evolução na indústria de negociação algorítmica, pois os mercados mudam constantemente. Embora poucos corretores na Índia suportem negociação algorítmica, alguns oferecem opções de negociação programática, como semi-algo ou el-go. O palestrante também discute o mercado de trabalho para analistas quantitativos, destacando que não é exclusividade de doutores, mas depende do conhecimento e da capacidade de resolução de problemas de cada um. Os requisitos de hardware e infraestrutura para negociação algorítmica também são abordados. Para negociação de baixa frequência, um laptop decente ou opções de computação em nuvem fornecidas por empresas como Amazon e Google são suficientes. A negociação de média frequência requer uma plataforma de negociação algorítmica e um servidor especializado, que pode custar alguns milhares de dólares. A negociação de alta frequência exige um servidor especializado que varia de US$ 10.000 a US$ 25.000.

O palestrante explica as aprovações necessárias antes de entrar no ar, que dependem da bolsa e da localização. Esclarecem que o programa EPAT abrange um leque abrangente de temas e centra-se na aprendizagem prática, embora não garanta estratégias rentáveis. Os diferentes tipos de algoritmos usados na negociação automatizada são discutidos, incluindo algoritmos de baixa, média e alta frequência. Algoritmos de alta frequência são utilizados para arbitragem, criação de mercado e estratégias direcionais que requerem computação mais rápida. Algoritmos de baixa e média frequência podem automatizar várias estratégias, incluindo investimentos fundamentais. Estratégias populares como impulso, arbitragem estatística e estratégias baseadas em opções também são mencionadas, com algoritmos que fornecem benefícios como escalabilidade, controle emocional e melhor análise de big data.

Para comerciantes de varejo interessados em negociação algorítmica, mas sem experiência em programação, o palestrante sugere começar aprendendo estatísticas básicas e estratégias de negociação. Eles fornecem recursos para aprendizagem individualizada. Nitesh Khandelwal enfatiza a ideia de criar sua própria estratégia de negociação, em vez de confiar em estratégias pré-existentes. Eles também abordam o papel da negociação de algo no mercado de criptomoedas, afirmando que, embora alguns participantes usem ferramentas de automação para negociar criptomoedas, a negociação de algo não é a única razão por trás do boom da criptomoeda. O impacto potencial da inteligência artificial e do aprendizado de máquina na negociação de algoritmos é mencionado, com o palestrante destacando que capacitará comerciantes individuais e de varejo ao lado de grandes instituições devido à acessibilidade do poder de computação necessário para algoritmos de treinamento.

O palestrante discute ainda o aumento esperado na participação do varejo no comércio algorítmico devido às mudanças e automação que estão acontecendo no setor financeiro. Eles abordam questões do público sobre recursos para dados de balanço, transição de uma empresa não financeira para um comerciante algorítmico e os números ideais para CAGR (taxa de crescimento anual composta) e proporção vencedora em negociação algorítmica. O palestrante adverte contra o foco apenas em retornos percentuais e, em vez disso, enfatiza escalabilidade, infraestrutura forte e tecnologia como considerações importantes.

A sessão termina com o palestrante discutindo a importância de considerar o risco ao discutir os retornos e o investimento necessário para iniciar um negócio de negociação de algo, que pode variar de alguns milhares de dólares a centenas de milhares, dependendo da frequência e do tipo de infraestrutura necessária. O palestrante menciona que a automação e o gerenciamento de riscos são fatores-chave a serem considerados ao iniciar um negócio de negociação de algo. Eles também fornecem informações sobre a disponibilidade de dados em tempo real na Índia e o processo de aprovação para estratégias de negociação, enfatizando que as bolsas priorizam o gerenciamento de risco sobre as especificidades da estratégia. Finalmente, o palestrante reconhece a escassez de bons sites para back-testing e escrever estratégias canhotas (alavancadas e intradiárias) nos mercados indianos.

No último segmento, o palestrante discute o desenvolvimento de ferramentas para diferentes mercados na Horn Insights, visando proporcionar melhor exposição e benefícios aos participantes e usuários. Eles abordam uma questão sobre a faixa salarial dos quants na Índia, observando que isso depende de fatores como experiência e histórico. O palestrante enfatiza que colocation não é manipulação e compara isso a pagar uma passagem aérea para chegar a um destino mais rápido do que viajar de trem. Eles também mencionam que a maioria das estratégias baseadas em indicadores técnicos podem ser desenvolvidas usando Python e destacam que, embora os programas avançados no domínio de negociação algorítmica não estejam amplamente disponíveis, a orientação vitalícia é fornecida por meio do programa ANNIE pat.

Nos momentos finais do vídeo, o palestrante incentiva as pessoas a buscarem negociação algorítmica e menciona que o mercado evoluiu significativamente ao longo dos anos, tornando-se mais acessível aos comerciantes de varejo. Eles convidam os espectadores a explorar os recursos disponíveis no QuantInsti e no Horn Insights para aprofundar seu conhecimento e compreensão da negociação algorítmica.

  • 00:00:00 Nitesh Khandelwal, co-fundador da empresa de negociação de algo Eragy, dá as boas-vindas ao público para uma sessão "pergunte-me qualquer coisa" sobre negociação algorítmica. Khandelwal tem experiência em consultoria de grandes instituições para montar suas próprias mesas de negociação de algo e compartilhará sua experiência no assunto. A sessão abordará questões populares sobre tópicos como plataformas e corretoras, estratégias de negociação, dados de mercado, oportunidades de trabalho, criação de uma mesa de negociação de algo, regulamentos e ambiente de negócios, o futuro da negociação de algo e oportunidades de aprendizado e educação. A sessão visa encontrar um equilíbrio entre perguntas pré-preparadas e perguntas ao vivo, e também oferecerá sessões individuais de acompanhamento para perguntas que não podem ser respondidas durante a sessão.

  • 00:05:00 O apresentador explica diferentes estratégias de negociação, como baixa frequência, média frequência e negociação de alta frequência, e como essas estratégias são definidas com base na latência da infraestrutura de negociação e no tempo de processamento de pedidos. O apresentador enfatiza que a latência da estratégia de negociação é mais importante do que o número de negócios executados por segundo. A seção aborda onde obter dados de mercado e dados econômicos de diferentes fornecedores de dados, como Yahoo Finance, Google Finance, quanti ex parte del alpha Vantage fxcm. O apresentador observa que esses fornecedores oferecem dados para download ou dados que podem ser usados em sua plataforma.

  • 00:10:00 O palestrante discute as fontes de dados que podem ser usadas para negociação algorítmica. Os dados podem ser obtidos por meio de downloads manuais, busca de API ou fornecedores pagos, como Qantas Global Data Feed Trading Economics, Thomson Reuters e Active Financial. A questão de saber se os traders de HFT ou de cotovelo geralmente vencem os day traders manuais depende do tipo de day trader que está sendo analisado. Se os traders estiverem aproveitando as oportunidades de arbitragem ou ineficiências do mercado, as máquinas podem ser mais rápidas do que os traders manuais. No entanto, se os traders estiverem analisando dados e executando ordens manuais após uma pesquisa minuciosa, as máquinas não são necessariamente mais eficientes. A ideia de que um mercado excessivamente negociado por algo é contraproducente, pois a automação nem sempre requer negociação de alta frequência.

  • 00:15:00 O palestrante explica o conceito de usar cotovelos na negociação, que envolve a negociação com mais eficiência e pode ser automatizado e quantificado por meio de fórmulas matemáticas. No entanto, encontrar ineficiências no mercado pode ser um desafio, e a concorrência no comércio de alta frequência e na infraestrutura de tecnologia está se tornando mais cara. Os indicadores e padrões técnicos podem ser quantificados e automatizados, mas os algoritmos podem se tornar muito mais complexos quando a subjetividade está envolvida, como no Elliott Wave. O palestrante também aborda uma questão sobre como lidar com várias estratégias em uma conta de corretagem para um FBI.

  • 00:20:00 O palestrante discute os pré-requisitos necessários para negociação algorítmica, que normalmente envolve três pilares principais de estatística e econometria, computação financeira e negociação quantitativa. Quem começa do zero pode conhecer esses pilares por meio de diversos recursos, como os disponíveis gratuitamente no site da quant. Para traders já familiarizados com estratégias de negociação e que procuram automatizar, eles podem começar usando uma API de corretor e, eventualmente, construir sua própria plataforma. Em termos de provedores de dados para dados de ticks, a maioria dos fornecedores fornece dados instantâneos, embora fornecedores de ponta possam fornecer dados de ticks verdadeiros por um custo mais alto. Finalmente, para os comerciantes que já são bem-sucedidos com suas estratégias de negociação atuais, pode não haver necessidade de aprender algo trading, a menos que eles queiram continuar atualizando e experimentando.

  • 00:25:00 O palestrante discute os benefícios de automatizar estratégias de negociação, como controlar emoções e ter escalabilidade e largura de banda para trabalhar em estratégias enquanto as máquinas cuidam da execução. O palestrante informa que ter experiência em programação é essencial para ter sucesso na negociação algorítmica e menciona que a maioria das empresas em todo o mundo usa Python. No entanto, o palestrante afirma que o HFT não é adequado para comerciantes de varejo e algumas estratégias podem exigir uma quantidade razoável de capital antes de obter sucesso. No entanto, mesmo com conhecimento básico de Python, pode-se começar na negociação algorítmica.

  • 00:30:00 O palestrante discute as habilidades necessárias para se tornar um trader algorítmico, incluindo conhecimento de estatística, econometria e estratégias de negociação. O palestrante também explica as várias oportunidades de carreira na negociação algorítmica, desde funções de back-office até funções de negociação de front-office. Para aqueles que buscam oportunidades de carreira com 10 a 20 anos de experiência no domínio, mas sem experiência comercial, o palestrante compartilha um blog sobre um ex-aluno de 40 anos da QuantInsti que conseguiu fazer a transição para negociação algorítmica com sucesso. Além disso, o QuantInsti possui uma célula de carreira dedicada que pode ajudar os indivíduos a adquirir as habilidades necessárias e se conectar com as pessoas certas para avançar em suas carreiras.

  • 00:35:00 O palestrante fala sobre linguagens algorítmicas de negociação e a importância da programação em pesquisa e análise. Ele explica que as empresas de negociação de alta frequência preferem usar C++ por sua menor latência, mas para backtesting e avaliação de estratégia, R e Python são mais populares. Em resposta à pergunta de um usuário sobre como melhorar a taxa de acertos e perdas consecutivas, ele sugere a otimização dos parâmetros no backtesting e o uso de negociação dentro e fora da amostra para verificar a redução. Ao discutir a saturação do mercado, ele afirma que o índice HFT é um indicador de concorrência e que as estratégias de arbitragem simples podem não ser bem-sucedidas em mercados com altos índices HFT.

  • 00:40:00 O palestrante discute diferentes estratégias de negociação algorítmica, enfatizando a necessidade de uma forte infraestrutura de tecnologia para arbitragem simples e estratégias de criação de mercado. O palestrante também responde a várias perguntas do público, incluindo o significado da quantidade total de bits, o impacto dos HFTs nos comerciantes tradicionais na Índia e o horizonte de tempo usado para processar dados para negociação de algo, que ele explica que depende da frequência de negociação. Além disso, o palestrante incentiva os indivíduos com experiência em software e ciência de dados a se aventurarem na negociação de algo, afirmando que sua experiência já fornece uma base sólida e que entrar no mercado financeiro deve ser relativamente mais fácil.

  • 00:45:00 Nitesh responde a várias perguntas relacionadas à possibilidade de configurar uma plataforma de negociação com sua empresa, aprovação legal para automação, custos e regulamentações do mercado indiano. Eles fornecem orientação e apoio vitalício a seus participantes e ex-alunos, mas não oferecem serviços de consultoria. A automação é possível e os custos dependem da infraestrutura necessária. Em países como a Índia, cada estratégia de negociação precisa de aprovação antes da automação, e somente o corretor pode fazer isso em nome do comerciante. Os indicadores estocásticos podem ser usados em qualquer estratégia, e os indicadores fundamentais podem ser alimentados manualmente ou por software. Existem ferramentas para facilitar a leitura de notícias legíveis por máquina e dados econômicos para a criação de algoritmos.

  • 00:50:00 Discute-se se as pessoas na Índia podem fazer negociações de alta frequência (HFT) para mercados não indianos e também se a HFT afasta os comerciantes de varejo dos mercados. Para mercados não indianos, é mencionado que, sob o esquema LRS, não é permitido enviar dinheiro para produtos de margem comercial listados em bolsas estrangeiras, a menos que haja aprovação do RBA. No entanto, se uma empresa global terceirizar parte de seu comércio para uma empresa indiana, isso pode ser possível. Sobre a questão de saber se o HFT expulsa os comerciantes de varejo do mercado, é mencionado que a presença de HFTs adiciona liquidez ao mercado e reduz os spreads, o que beneficia os comerciantes de varejo. No entanto, atividades ilegais como front running não devem ser permitidas, independentemente do domínio.

  • 00:55:00 O palestrante discute como o comércio de alta frequência (HFT) não prejudica os comerciantes de varejo no nível individual porque eles usam navegadores baseados na web que possuem uma latência integrada de algumas centenas de milissegundos. Mesmo que as empresas de HFT usem métodos ilegais para obter acesso mais rápido, isso não afetaria o varejista, mas prejudicaria outras empresas de HFT que seguem as regras. O palestrante ressalta que os comerciantes de varejo geralmente se beneficiam do mercado eficiente que o HFT cria, pois elimina as oportunidades de arbitragem. O palestrante também aborda uma questão sobre como aprender negociação algorítmica em inglês e fala sobre alguns componentes importantes para uma negociação consistentemente lucrativa.

  • 01:00:00 O vídeo discute a importância de evoluir continuamente a estratégia de negociação na indústria de negociação algorítmica, pois os mercados mudam constantemente. Embora não haja muitos corretores na Índia que suportem negociação algorítmica, alguns oferecem negociação programática que permite o uso de certos programas como semi-algo ou el-go. O mercado de trabalho para analistas quantitativos não é exclusivo para PhDs, mas depende de conhecer as coisas e ter habilidades para resolver problemas. O vídeo também aborda os requisitos de hardware necessários para negociação algorítmica, que dependem do tipo de negociação que está sendo feito, mas geralmente, um laptop ou desktop decente é suficiente.

  • 01:05:00 O palestrante discute os requisitos de hardware e infraestrutura para negociação algorítmica. Para negociações de baixa frequência, um laptop decente ou opções de computação em nuvem fornecidas por empresas como Amazon e Google serão suficientes. Para negociação de média frequência, é necessária uma plataforma de negociação algorítmica e um servidor especializado custaria alguns milhares de dólares, com negociação de alta frequência exigindo um servidor especializado que custa de US$ 10.000 a US$ 25.000. O palestrante também explica as aprovações necessárias antes de entrar no ar, que dependem da bolsa e da localização. Por fim, o palestrante esclarece que o programa EPAT abrange uma gama abrangente de tópicos e é focado no aprendizado prático, mas não garante estratégias lucrativas.

  • 01:10:00 O palestrante discute os diferentes tipos de algoritmos que podem ser usados para negociação automatizada, incluindo algoritmos de baixa, média e alta frequência. Algoritmos de alta frequência são usados para arbitragem, criação de mercado e estratégias direcionais que requerem computação mais rápida. Por outro lado, algoritmos de baixa e média frequência podem automatizar diferentes estratégias, incluindo investimentos fundamentais. O palestrante também menciona estratégias populares como impulso, arbitragem estatística e estratégias baseadas em opções, e destaca que o uso de algoritmos pode beneficiar a negociação, fornecendo mais escala e controle emocional e permitindo uma melhor análise de big data. Para comerciantes de varejo que estão interessados em negociação algorítmica, mas não têm experiência em programação, o palestrante sugere começar com o aprendizado de estatísticas básicas e estratégias de negociação e fornece recursos para aprendizado individualizado.

  • 01:15:00 Nitesh Khandelwal discute a ideia de usar estratégias de negociação padrão e enfatiza a importância de criar sua própria estratégia em vez de confiar em estratégias pré-existentes. Ele também fala sobre o papel do algo trading no mercado de criptomoedas, afirmando que, embora existam alguns participantes usando ferramentas de automação para negociar criptomoedas, o algo trading não é a razão por trás do boom das criptomoedas. Khandelwal também aborda o impacto potencial da inteligência artificial e do aprendizado de máquina na negociação de algoritmos, afirmando que isso dará aos comerciantes individuais e de varejo mais poder, além de grandes instituições, devido à acessibilidade do poder de computação necessário para algoritmos de treinamento.

  • 01:20:00 O palestrante discute o aumento esperado na participação do varejo no comércio algorítmico devido às mudanças e automação que estão acontecendo no setor financeiro. O palestrante também aborda questões do público sobre recursos para dados de balanço, transição de uma empresa não financeira para um trader algorítmico e os melhores números para CAGR e proporção vencedora em negociação algorítmica. O palestrante adverte contra o foco apenas em retornos percentuais e, em vez disso, incentiva a escalabilidade e infraestrutura e tecnologia fortes.

  • 01:25:00 O palestrante discute estratégias de negociação de baixa e média frequência e o índice de Sharpe, afirmando que retornos não podem ser discutidos sem considerar o risco. Ele também menciona o investimento necessário para iniciar um negócio de negociação de algo, que pode variar de alguns milhares de dólares a centenas de milhares, dependendo da frequência e do tipo de infraestrutura necessária. Além disso, o palestrante menciona que a automação e o gerenciamento de riscos são considerações importantes ao iniciar um negócio de negociação de algo. Com relação aos dados, dados em tempo real são possíveis sem colocation na Índia, mas pode haver um atraso de alguns milissegundos. O palestrante também discute o processo de aprovação de estratégias e garante aos ouvintes que as exchanges geralmente focam mais na gestão de riscos do que nas especificidades da estratégia. Por fim, o palestrante menciona que não há muitos sites bons para testar e escrever estratégias canhotas nos mercados indianos.

  • 01:30:00 O palestrante discute o desenvolvimento de ferramentas para diferentes mercados na Horn Insights para proporcionar melhor exposição e benefícios para participantes e usuários. Eles também respondem a uma pergunta sobre a faixa salarial dos quants na Índia, que depende de fatores como experiência e histórico. O palestrante enfatiza que colocation não é manipulação e compara isso a pagar uma passagem aérea para chegar a um destino mais rápido do que viajar de trem. Além disso, eles sugerem que a maioria das estratégias baseadas em indicadores técnicos podem ser desenvolvidas usando Python e observam que não há muitos programas avançados oferecidos no domínio de negociação algorítmica, mas a orientação ao longo da vida está disponível através do ANNIE pat.

  • 01:35:00 O palestrante aborda quaisquer dúvidas ou preocupações que os espectadores possam ter. Eles garantem aos espectadores que, se tiverem outras dúvidas, devem se sentir à vontade para pedir ajuda e terão prazer em responder a todas as perguntas. O palestrante finaliza agradecendo a presença do público na sessão e se esforçando para sanar o maior número possível de dúvidas.
Razão: