Negociação quantitativa - página 11

 

6. Análise de Regressão



6. Análise de Regressão

Neste vídeo abrangente, nos aprofundamos no tópico da análise de regressão, explorando sua importância na modelagem estatística. A regressão linear ocupa o centro do palco quando discutimos seus objetivos, a configuração do modelo linear e o processo de ajuste de um modelo de regressão. Para garantir uma base sólida, começamos explicando as suposições subjacentes à distribuição de resíduos, incluindo as renomadas suposições de Gauss-Markov. Além disso, introduzimos o teorema generalizado de Gauss-Markov, que fornece um método para estimar a matriz de covariância na análise de regressão.

Enfatizamos a importância de incorporar informações subjetivas na modelagem estatística e acomodar dados incompletos ou ausentes. A modelagem estatística deve ser adaptada ao processo específico que está sendo analisado e alertamos contra a aplicação cega de regressão linear simples a todos os problemas. A estimativa de mínimos quadrados ordinária para beta é explicada, juntamente com as equações de normalização, a matriz hat e o teorema de Gauss-Markov para estimar parâmetros de regressão. Também cobrimos modelos de regressão com covariâncias diferentes de zero entre os componentes, permitindo uma abordagem mais flexível e realista.

Para expandir ainda mais nosso entendimento, exploramos o conceito de distribuições normais multivariadas e seu papel na resolução da distribuição do estimador de mínimos quadrados, assumindo resíduos normalmente distribuídos. Tópicos como a função de geração de momento, decomposição QR e estimativa de máxima verossimilhança são abordados. Explicamos como a decomposição QR simplifica a estimativa de mínimos quadrados e apresentamos um resultado fundamental sobre modelos de regressão linear normal. Definimos a função de verossimilhança e as estimativas de máxima verossimilhança, destacando a consistência entre os princípios dos mínimos quadrados e da máxima verossimilhança em modelos de regressão linear normal.

Ao longo do vídeo, enfatizamos as etapas iterativas envolvidas na análise de regressão. Essas etapas incluem identificar a resposta e as variáveis explicativas, especificar as suposições, definir os critérios de estimativa, aplicar o estimador escolhido aos dados e validar as suposições. Também discutimos a importância de verificar suposições, realizar diagnósticos de influência e detectar valores discrepantes.

Em resumo, este vídeo fornece uma visão abrangente da análise de regressão, abrangendo tópicos como regressão linear, suposições de Gauss-Markov, teorema de Gauss-Markov generalizado, informações subjetivas em modelagem, estimativa de mínimos quadrados comuns, matriz de chapéu, distribuições normais multivariadas, geração de momento função, decomposição QR e estimativa de verossimilhança máxima. Compreendendo esses conceitos e técnicas, você estará bem equipado para lidar com a análise de regressão e utilizá-la com eficácia em seus empreendimentos de modelagem estatística.

  • 00:00:00 Nesta seção, o professor apresenta o tópico de análise de regressão, que é abordado hoje, e sua importância na modelagem estatística. A metodologia, particularmente a regressão linear, é poderosa e amplamente utilizada em finanças e outras disciplinas que fazem estatística aplicada. O professor discute os vários objetivos da análise de regressão, incluindo extrair/explorar a relação entre variáveis independentes e dependentes, predição, inferência causal, aproximação e descoberta de relações funcionais/validação de relações funcionais entre variáveis. Além disso, o modelo linear é configurado do ponto de vista matemático, e a palestra abrange mínimos quadrados ordinários, o teorema de Gauss-Markov e modelos formais com modelos de regressão linear normal, seguidos de extensões para classes mais amplas.

  • 00:05:00 Nesta seção, o conceito de análise de regressão linear é explorado, onde uma função linear modela a distribuição condicional de uma variável de resposta dadas variáveis independentes. Os parâmetros de regressão são usados para definir a relação e os resíduos descrevem a incerteza ou erro nos dados. Além disso, a aproximação polinomial e a série de Fourier podem ser aplicadas para fornecer uma descrição completa, especialmente para o comportamento cíclico. As principais etapas para ajustar um modelo de regressão envolvem propor um modelo baseado na escala da variável de resposta e identificar as principais variáveis independentes. Vale a pena notar que essas variáveis independentes podem incluir diferentes formas funcionais e valores de defasagem da variável de resposta, tornando a configuração relativamente geral.

  • 00:10:00 Nesta seção, o palestrante discute as etapas envolvidas na análise de regressão. Em primeiro lugar, é preciso identificar a resposta das variáveis explicativas e especificar os pressupostos subjacentes à distribuição dos resíduos. Em segundo lugar, é preciso definir um critério de como julgar diferentes estimadores dos parâmetros de regressão, com várias opções disponíveis. Em terceiro lugar, o melhor estimador precisa ser caracterizado e aplicado aos dados fornecidos. Em quarto lugar, deve-se verificar suas suposições, o que pode levar a modificações no modelo e nas suposições, se necessário. Por fim, o palestrante enfatiza a importância de adequar o modelo ao processo que está sendo modelado e não aplicar a regressão linear simples a todos os problemas. A seção termina com uma discussão das suposições que podem ser feitas para a distribuição residual em um modelo de regressão linear, sendo a distribuição normal um ponto de partida comum e familiar.

  • 00:15:00 Nesta seção, o palestrante explica as suposições de Gauss-Markov usadas na análise de regressão, que focam nas médias e variâncias dos resíduos. As suposições incluem média zero, variância constante e resíduos não correlacionados. O palestrante também discute as suposições generalizadas de Gauss-Markov que envolvem variáveis aleatórias com valor de matriz ou valor de vetor. O palestrante demonstra como a matriz de covariância caracteriza a variância do vetor n e fornece exemplos usando valores mu e y.

  • 00:20:00 Nesta seção, o teorema generalizado de Gauss-Markov é apresentado como uma forma de estimar a matriz de covariância na análise de regressão. O teorema permite uma matriz de covariância geral com covariâncias diferentes de zero entre as variáveis independentes, as variáveis dependentes e os resíduos, e assume que elas podem ser correlacionadas. Exemplos não lineares de por que os resíduos podem ser correlacionados em modelos de regressão são discutidos, bem como o uso de vários tipos de distribuição além da distribuição gaussiana em modelos de regressão adequados para estender a aplicabilidade. A palestra cobre o critério de estimativa para parâmetros de regressão e vários métodos usados para julgar o que se qualifica como uma boa estimativa, incluindo mínimos quadrados, máxima verossimilhança, métodos robustos, métodos de Bayes e acomodação para dados incompletos ou ausentes.

  • 00:25:00 Nesta seção, o palestrante discute a importância de incorporar informações subjetivas na modelagem estatística e a utilidade das metodologias de Bayes na modelagem apropriada. Ele também enfatiza a necessidade de acomodar dados incompletos ou ausentes usando modelos estatísticos. Além disso, o palestrante explica como verificar as suposições em modelos de regressão analisando os resíduos para determinar se as suposições de Gauss-Markov se aplicam. Ele também menciona a importância do diagnóstico de influência e da detecção de outliers na identificação de casos que podem ser altamente influentes ou incomuns, respectivamente. Finalmente, ele introduz o conceito de mínimos quadrados ordinários e o critério de mínimos quadrados para calcular a soma dos desvios quadrados do valor real da variável de resposta.

  • 00:30:00 Nesta seção, aprenderemos sobre análise de regressão e como resolver a estimativa de mínimos quadrados comuns para beta. Usamos matrizes, tomando o vetor y, os n valores da variável independente e X, a matriz de valores da variável dependente, para definir o valor ajustado, y hat, igual à matriz x vezes beta. Tomando o produto vetorial do n-vetor menos o produto da matriz X vezes beta, que produz as estimativas de mínimos quadrados comuns para beta, podemos resolver a segunda derivada de Q em relação a beta, que acaba sendo X. transpõe X, uma matriz positiva definida ou semi-definida. Finalmente, definimos a derivada de Q em relação aos parâmetros de regressão como menos duas vezes a j-ésima coluna empilhada vezes y.

  • 00:35:00 Nesta seção, o conceito de equações normais na modelagem de regressão é introduzido. O conjunto de equações deve ser satisfeito pela estimativa dos mínimos quadrados ordinários, beta. Com a ajuda da álgebra matricial, a equação pode ser resolvida, e a solução para beta hat assume que X transpõe X inverso existe. Para que X transponha X inverso, X deve ter posto completo, indicando que ter variáveis independentes explicadas por outras variáveis independentes resultaria em posto reduzido. Descobriu-se que, se o chapéu beta não tiver classificação completa, nossa estimativa de mínimos quadrados de beta pode não ser única.

  • 00:40:00 Nesta seção sobre análise de regressão, a hat matrix é apresentada como uma matriz de projeção que leva o vetor linear da variável de resposta em valores ajustados. Especificamente, é uma matriz de projeção ortogonal que se projeta no espaço da coluna de X. Os resíduos são a diferença entre o valor da resposta e o valor ajustado e podem ser expressos como y menos y hat ou I_n menos H vezes y. Acontece que I_n menos H também é uma matriz de projeção que projeta os dados no espaço ortogonal ao espaço da coluna de x. É importante ter isso em mente porque ajuda a representar o vetor n-dimensional y por projeção no espaço da coluna e a entender que os resíduos são ortogonais a cada uma das colunas de X.

  • 00:45:00 Nesta seção, o teorema de Gauss-Markov é apresentado como um resultado poderoso na teoria de modelos lineares que é útil para estimar uma função de parâmetros de regressão considerando um alvo geral de interesse, que é uma combinação linear dos betas . O teorema afirma que as estimativas de mínimos quadrados são estimadores imparciais do parâmetro teta e fornece uma maneira de mostrar que essas estimativas têm a menor variância entre todos os estimadores lineares imparciais, assumindo que certas condições sejam atendidas. O conceito de estimadores imparciais também é brevemente explicado.

  • 00:50:00 Nesta seção, o palestrante discute o teorema de Gauss-Markov, que afirma que, se as suposições de Gauss-Markov se aplicarem, o estimador teta terá a menor variação entre todos os estimadores lineares imparciais de teta. Isso significa que o estimador de mínimos quadrados é o estimador ideal para teta, desde que esse seja o critério. A prova para este teorema é baseada em considerar outra estimativa linear que também é uma estimativa imparcial e avaliar a diferença entre os dois estimadores que devem ter uma expectativa de 0. O argumento matemático para a prova inclui uma decomposição da variância e acompanhamento de os termos de covariância. Este resultado é de onde vem o termo estimativas BLUE ou a propriedade BLUE das estimativas de mínimos quadrados na aula de econometria.

  • 00:55:00 Nesta seção, o vídeo discute o modelo de regressão com covariâncias diferentes de zero entre os componentes e como os dados Y, X podem ser transformados em estrela Y e estrela X para satisfazer as suposições originais de Gauss-Markov, tornando as variáveis de resposta têm variância constante e não são correlacionados. O vídeo explica que, com valores de resposta com variações muito grandes, esses mínimos quadrados generalizados os descontam pelo inverso sigma. O vídeo então se aprofunda na teoria da distribuição para modelos de regressão normal, assumindo que os resíduos são normais com média 0 e variância sigma ao quadrado e que as variáveis de resposta terão uma variância constante, embora não sejam identicamente distribuídas porque têm médias diferentes para a variável dependente.

  • 01:00:00 Nesta seção, o conceito de distribuição normal multivariada é discutido em relação ao vetor médio e à matriz de covariância. O objetivo é resolver a distribuição do estimador de mínimos quadrados assumindo resíduos normalmente distribuídos. A função geradora de momento é introduzida como uma forma de derivar a distribuição conjunta de Y e beta hat. Para distribuições normais multivariadas, a função geradora de momento para Y é o produto das funções geradoras de momento individuais, com a distribuição de Y sendo uma normal com média mu e matriz de covariância sigma. A função geradora de momentos para beta é resolvida para determinar sua distribuição, que é uma normal multivariada.

  • 01:05:00 Nesta seção, o palestrante discute a função geradora de momento do chapéu beta e como ela é equivalente a uma distribuição normal multivariada com média do beta verdadeiro e matriz de covariância dada por um determinado objeto. A distribuição marginal de cada um dos chapéus beta é dada por uma distribuição normal univariada com média beta_j e variância igual à diagonal, que pode ser provada a partir da função geradora de momento Gaussiana. O palestrante então passa a discutir a decomposição QR de X, que pode ser obtida por meio de uma ortonormalização de Gram-Schmidt da matriz de variáveis independentes. Definindo a matriz triangular superior R e resolvendo para Q e R através do processo de Gram-Schmidt, podemos expressar qualquer matriz n por p como um produto de uma matriz ortonormal Q e uma matriz triangular superior R.

  • 01:10:00 Nesta seção, a decomposição QR e sua aplicação na simplificação da estimativa de mínimos quadrados são discutidas. Usando o processo de Gram-Schmidt para ortogonalizar colunas de X, a decomposição QR pode ser calculada para obter uma operação de álgebra linear simples para resolver estimativas de mínimos quadrados. A matriz de covariância de beta hat é igual a sigma ao quadrado X transposta X inversa, e a matriz hat é simplesmente Q vezes Q transposta. A teoria da distribuição é mais explorada para fornecer um resultado fundamental sobre modelos de regressão linear normal.

  • 01:15:00 Nesta seção, o professor discute um importante teorema para qualquer matriz A, m por n, que pode transformar um vetor aleatório y em um vetor normal aleatório. O teorema prova que os mínimos quadrados estimam beta hat e o vetor residual epsilon hat são variáveis aleatórias independentes ao construir tais estatísticas. A distribuição de beta hat é normal multivariada, enquanto a soma dos resíduos quadrados é um múltiplo de uma variável aleatória qui-quadrada. As estimativas dos parâmetros de regressão e as estatísticas t também são discutidas. A estimativa de probabilidade máxima também é explicada no contexto de modelos de regressão linear normal. Acontece que as estimativas de mínimos quadrados ordinários são estimativas de máxima verossimilhança.

  • 01:20:00 Nesta seção, a função de verossimilhança e as estimativas de máxima verossimilhança são definidas. A função de verossimilhança é a função de densidade para os dados dados os parâmetros desconhecidos de uma variável aleatória normal multivariada, e as estimativas de verossimilhança máxima determinam os valores desses parâmetros que tornam os dados observados mais prováveis. Observa-se que o uso de mínimos quadrados para ajustar modelos é consistente com a aplicação do princípio de máxima verossimilhança a um modelo de regressão linear normal. Além disso, estimadores M generalizados são brevemente mencionados como uma classe de estimadores usados para encontrar estimativas robustas e quantílicas de parâmetros de regressão.
6. Regression Analysis
6. Regression Analysis
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

7. Modelos de valor em risco (VAR)



7. Modelos de valor em risco (VAR)

O vídeo fornece uma discussão aprofundada sobre o conceito de modelos de valor em risco (VAR), que são amplamente utilizados no setor financeiro. Esses modelos empregam cálculos baseados em probabilidade para medir perdas potenciais que uma empresa ou indivíduo pode enfrentar. Usando um exemplo simples, o vídeo ilustra efetivamente os conceitos fundamentais por trás dos modelos VAR.

Os modelos VAR servem como ferramentas valiosas para os indivíduos avaliarem a probabilidade de perder dinheiro por meio de decisões de investimento em um determinado dia. Para entender o risco associado aos investimentos, os investidores podem analisar o desvio padrão de uma série temporal. Essa métrica revela quanto o retorno médio se desviou da média ao longo do tempo. Ao avaliar um título na média mais ou menos um desvio padrão, os investidores podem obter informações sobre o retorno potencial ajustado ao risco do título.

O vídeo destaca que os modelos VAR podem ser construídos usando diferentes abordagens. Embora o vídeo se concentre principalmente na abordagem paramétrica, ele reconhece o método alternativo de empregar a simulação de Monte Carlo. A última abordagem oferece maior flexibilidade e opções de personalização, permitindo avaliações de risco mais precisas.

Além disso, o vídeo explora a criação de conjuntos de dados sintéticos que espelham as propriedades dos conjuntos de dados históricos. Ao empregar essa técnica, os analistas podem gerar cenários realistas para avaliar os riscos potenciais com precisão. O vídeo também demonstra a aplicação da trigonometria na descrição dos padrões sazonais observados nos dados de temperatura, mostrando os diversos métodos empregados na análise de risco.

Além de discutir os modelos VAR, o vídeo investiga as abordagens de gerenciamento de risco empregadas por bancos e empresas de investimento. Ele enfatiza a importância de entender o perfil de risco de uma empresa e se proteger contra concentrações excessivas de risco.

No geral, o vídeo oferece informações valiosas sobre a utilização de modelos VAR como ferramentas de avaliação de risco no setor financeiro. Ao quantificar os riscos associados aos investimentos e empregar análises estatísticas, esses modelos auxiliam na tomada de decisões informadas e na mitigação de possíveis perdas financeiras.

  • 00:00:00 Neste vídeo, Ken Abbott discute as abordagens de gerenciamento de risco usadas por bancos e empresas de investimento. Ele primeiro discute o risco e passa a discutir como o gerenciamento de risco envolve a compreensão do perfil de risco da empresa e a proteção contra concentrações de risco muito grandes.

  • 00:05:00 Os modelos de valor em risco são uma forma de estimar o risco associado a investimentos específicos e podem ser usados para ajudar a tomar decisões informadas sobre quais deles possuir. Esses modelos são baseados em uma compreensão estatística de como ações, títulos e derivativos se comportam e podem ser usados para quantificar a sensibilidade de um investidor a mudanças nas taxas de juros, preços de ações e preços de commodities.

  • 00:10:00 O vídeo explica que os modelos VAR são usados para medir o risco e determinar quanto dinheiro um investidor precisa manter para sustentar uma posição em um determinado mercado. O vídeo também fornece uma visão geral da análise de séries temporais, que é usada para entender o comportamento dos mercados ao longo do tempo.

  • 00:15:00 O vídeo discute o conceito de valor em risco (VAR), que é um modelo financeiro que usa probabilidade para medir as perdas potenciais que uma empresa pode sofrer. O vídeo usa um exemplo simples para ilustrar os conceitos.

  • 00:20:00 Os modelos de valor em risco (VAR) ajudam os indivíduos a avaliar a probabilidade de perder dinheiro em um determinado dia por meio de decisões de investimento. O desvio padrão de uma série temporal informa aos investidores quanto o retorno médio se desviou da média ao longo do tempo. Avaliar um título na média mais ou menos um desvio padrão dá uma ideia do retorno potencial ajustado ao risco do título.

  • 00:25:00 Os modelos de Valor em Risco (VAR) permitem identificar cenários em que um investimento pode perder mais de 4,2% do seu valor em um período de cinco anos. Essas informações podem ser úteis para determinar se um investimento provavelmente será lucrativo ou não.

  • 00:30:00 Este vídeo explica como os modelos de valor em risco (VAR) funcionam e como eles ajudam a mitigar o risco. Os conceitos introduzidos incluem mudanças percentuais e mudanças de log, e o uso de PV1 e durações para medir o risco. O vídeo também aborda o uso de modelos VAR no setor financeiro.

  • 00:35:00 Este vídeo aborda o conceito de valor em risco (VAR), que é uma ferramenta de gestão de risco que calcula a perda financeira potencial que uma empresa ou pessoa física pode sofrer devido à volatilidade de seus ativos. Os rendimentos também são discutidos e é explicado que são compostos por taxas livres de risco e spreads de crédito. O apresentador fornece um exemplo de como o VAR pode ser usado para estimar a perda financeira potencial que uma empresa pode sofrer devido a mudanças nos preços de seus ativos.

  • 00:40:00 Este vídeo discute modelos de valor em risco, que medem o risco nos mercados financeiros. a covariância e a correlação são duas medidas de risco, e as matrizes de covariância são simétricas, com a variância na diagonal e a covariância na diagonal. As correlações também são simétricas e podem ser calculadas usando a covariância dividida pelo produto dos desvios padrão.

  • 00:45:00 O vídeo discute o conceito de valor em risco (VAR), que é usado para medir o risco de perdas financeiras associadas a uma carteira de ativos. O vídeo explica que o VAR pode ser calculado usando uma matriz de covariância e uma matriz de correlação. A matriz de covariância mede o grau de correlação entre ativos, enquanto a matriz de correlação mede o grau de correlação entre ativos e passivos. O vídeo apresenta um exemplo de como o VAR pode ser calculado usando uma matriz de covariância e uma matriz de correlação.

  • 00:50:00 Os modelos de valor em risco (VAR) são uma forma de medir o risco associado a um investimento financeiro. O modelo usa dados de retornos e covariância para calcular o vetor de posição e a estatística de ordem. Isso é então usado para determinar o nível de risco do investimento.

  • 00:55:00 Este vídeo fornece os pontos principais de uma apresentação de 7 slides sobre modelos de valor em risco. Esses modelos são usados para calcular a probabilidade de perda financeira, desde que determinadas condições sejam atendidas. A falta de dados pode ser um problema e vários métodos estão disponíveis para preencher as lacunas. A apresentação também discute como o impacto de uma suposição pode ter um impacto material nos resultados de um modelo.

  • 01:00:00 O vídeo discute os modelos de valor em risco (VAR). O modelo usa uma abordagem paramétrica, mas existe outro método usando a simulação de Monte Carlo. Este método é mais flexível e permite mais personalização.

  • 01:05:00 Os modelos de valor em risco (VAR) são usados para estimar o potencial de perda financeira devido a flutuações nos preços dos ativos. Esses modelos podem ser usados para quantificar o risco associado a um determinado investimento ou portfólio.

  • 01:10:00 Neste vídeo, o autor discute a importância dos modelos de valor em risco (VAR), explicando que esses modelos ajudam a garantir que uma empresa não experimente um autovalor negativo. Ele continua dizendo que, se você tiver mil observações, precisará preencher os dados ausentes usando um processo chamado "imputação de dados ausentes". Finalmente, John demonstra como criar uma matriz de transformação que irá correlacionar normais aleatórias.

  • 01:15:00 Neste vídeo, o apresentador explica como criar modelos que simulem os resultados dos investimentos, usando a simulação de Monte Carlo. Ele também discute como usar uma cópula gaussiana para gerar modelos mais precisos.

  • 01:20:00 O vídeo explica como conjuntos de dados sintéticos podem ser criados para ter as mesmas propriedades dos conjuntos de dados históricos. Também demonstra como a trigonometria pode ser usada para descrever padrões sazonais em dados de temperatura.
7. Value At Risk (VAR) Models
7. Value At Risk (VAR) Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Kenneth AbbottThi...
 

8. Análise de Séries Temporais I


8. Análise de Séries Temporais I

Neste vídeo, o professor começa revisitando o método de estimativa de máxima verossimilhança como a principal abordagem na modelagem estatística. Eles explicam o conceito de função de verossimilhança e sua conexão com modelos de regressão linear normal. As estimativas de máxima verossimilhança são definidas como valores que maximizam a função de verossimilhança, indicando o quão provável os dados observados recebem esses valores de parâmetro.

O professor investiga a resolução de problemas de estimativa para modelos de regressão linear normal. Eles destacam que a estimativa de probabilidade máxima da variância do erro é Q de beta hat sobre n, mas alertam que essa estimativa é tendenciosa e precisa de correção dividindo-a por n menos a classificação da matriz X. À medida que mais parâmetros são adicionados ao modelo, os valores ajustados tornam-se mais precisos, mas também existe o risco de superajuste. O teorema afirma que as estimativas de mínimos quadrados, agora estimativas de máxima verossimilhança, dos modelos de regressão seguem uma distribuição normal, e a soma dos quadrados dos resíduos segue uma distribuição qui-quadrada com graus de liberdade iguais a n menos p. A estatística t é enfatizada como uma ferramenta crucial para avaliar a significância das variáveis explicativas no modelo.

A estimativa M generalizada é introduzida como um método para estimar parâmetros desconhecidos minimizando a função Q de beta. Diferentes estimadores podem ser definidos escolhendo diferentes formas para a função h, o que envolve a avaliação de outra função. O vídeo também aborda estimadores M robustos, que utilizam a função chi para garantir boas propriedades em relação às estimativas, bem como estimadores quantis. Estimadores robustos ajudam a mitigar a influência de outliers ou grandes resíduos na estimativa de mínimos quadrados.

O tópico então muda para estimadores M e sua ampla aplicabilidade em modelos de ajuste. É apresentado um estudo de caso sobre modelos de regressão linear aplicados à precificação de ativos, com foco no modelo de precificação de ativos de capital. O professor explica como os retornos das ações são influenciados pelo retorno geral do mercado, dimensionado pelo risco da ação. O estudo de caso fornece dados e detalhes sobre como coletá-los usando o software estatístico R. Os diagnósticos de regressão são mencionados, destacando seu papel na avaliação da influência de observações individuais nos parâmetros de regressão. A alavancagem é apresentada como uma medida para identificar pontos de dados influentes, e sua definição e explicação são fornecidas.

O conceito de incorporar fatores adicionais, como retornos de petróleo bruto, em modelos de retorno de ações é introduzido. A análise demonstra que o mercado sozinho não explica com eficiência os retornos de determinadas ações, enquanto o petróleo bruto atua como um fator independente que ajuda a elucidar os retornos. Um exemplo é dado com a Exxon Mobil, uma empresa de petróleo, mostrando como seus retornos se correlacionam com os preços do petróleo. A seção termina com um gráfico de dispersão indicando observações influentes com base na distância Mahalanobis de casos do centróide de variáveis independentes.

O palestrante passa a discutir a análise de séries temporais univariadas, que envolve a observação de uma variável aleatória ao longo do tempo como um processo discreto. Eles explicam as definições de estacionaridade estrita e de covariância, com a estacionariedade de covariância exigindo que a média e a covariância do processo permaneçam constantes ao longo do tempo. Os modelos de média móvel autorregressiva (ARMA), juntamente com sua extensão para a não estacionariedade por meio de modelos integrados de média móvel autorregressiva (ARIMA), são introduzidos. Estimativa de modelos estacionários e testes de estacionariedade também são abordados.

O teorema de representação de Wold para séries temporais estacionárias de covariância é discutido, afirmando que tal série temporal pode ser decomposta em um processo linearmente determinístico e uma média ponderada de ruído branco com coeficientes dados por psi_i. O componente de ruído branco, eta_t, tem variância constante e não está correlacionado consigo mesmo e com o processo determinístico. O teorema da decomposição de Wold fornece uma estrutura útil para modelar tais processos.

O palestrante explica o método de decomposição de Wold de análise de séries temporais, que envolve inicializar o parâmetro p (representando o número de observações passadas) e estimar a projeção linear de X_t com base nos últimos valores de p lag. Ao examinar os resíduos usando métodos de séries temporais, como avaliar a ortogonalidade para defasagens mais longas e consistência com ruído branco, pode-se determinar um modelo de média móvel apropriado. O método de decomposição de Wold pode ser implementado tomando o limite das projeções quando p se aproxima do infinito, convergindo para a projeção dos dados sobre sua história e correspondendo aos coeficientes da definição da projeção. No entanto, é crucial que a proporção de p para o tamanho da amostra n se aproxime de zero para garantir um número adequado de graus de liberdade para a estimativa do modelo.

A importância de ter um número finito de parâmetros em modelos de séries temporais é enfatizada para evitar overfitting. O operador lag, denotado como L, é introduzido como uma ferramenta fundamental em modelos de séries temporais, permitindo o deslocamento de uma série temporal em um incremento de tempo. O operador lag é utilizado para representar qualquer processo estocástico usando o polinômio psi(L), que é um polinômio de ordem infinita envolvendo lags. A função de resposta ao impulso é discutida como uma medida do impacto de uma inovação em um determinado momento no processo, afetando-o naquele ponto e além. O palestrante fornece um exemplo usando a mudança na taxa de juros pelo presidente do Federal Reserve para ilustrar o impacto temporal das inovações.

O conceito de resposta cumulativa de longo prazo é explicado em relação à análise de séries temporais. Esta resposta representa o efeito acumulado de uma inovação no processo ao longo do tempo e significa o valor para o qual o processo está convergindo. É calculado como a soma das respostas individuais capturadas pelo polinômio psi(L). A representação Wold, que é uma média móvel de ordem infinita, pode ser transformada em uma representação autorregressiva usando o inverso do polinômio psi(L). A classe de processos de média móvel autorregressiva (ARMA) é apresentada com sua definição matemática.

O foco então se volta para os modelos autorregressivos dentro do contexto dos modelos ARMA. A palestra começa com casos mais simples, especificamente modelos autorregressivos, antes de abordar os processos de média móvel. Exploram-se as condições de estacionariedade e introduz-se a equação característica associada ao modelo autorregressivo substituindo a função polinomial phi pela variável complexa z. O processo X_t é considerado estacionário de covariância se todas as raízes da equação característica estiverem fora do círculo unitário, implicando que o módulo do complexo z é maior que 1. As raízes fora do círculo unitário devem ter um módulo maior que 1 para garantir a estacionaridade.

Na seção seguinte do vídeo, o conceito de estacionariedade e raízes unitárias em um processo autorregressivo de ordem um (AR(1)) é discutido. A equação característica do modelo é apresentada, e é explicado que a estacionariedade da covariância requer que a magnitude de phi seja menor que 1. A variância de X no processo autorregressivo mostra-se maior que a variância das inovações quando phi é positivo e menor quando phi é negativo. Adicionalmente, é demonstrado que um processo autorregressivo com phi entre 0 e 1 corresponde a um processo exponencial de reversão à média, que tem sido empregado em modelos de taxa de juros em finanças.

O vídeo progride para focar especificamente em processos autorregressivos, particularmente modelos AR(1). Esses modelos envolvem variáveis que tendem a reverter para alguma média em períodos curtos, com o ponto de reversão à média potencialmente mudando em períodos longos. A palestra apresenta as equações de Yule-Walker, que são empregadas para estimar os parâmetros dos modelos ARMA. Essas equações dependem da covariância entre as observações em diferentes defasagens, e o sistema de equações resultante pode ser resolvido para obter os parâmetros autorregressivos. As equações de Yule-Walker são freqüentemente utilizadas para especificar modelos ARMA em pacotes estatísticos.

O princípio do método dos momentos para estimativa estatística é explicado, particularmente no contexto de modelos complexos onde especificar e computar funções de verossimilhança tornam-se desafiadores. A palestra discute modelos de média móvel e apresenta fórmulas para as expectativas de X_t, incluindo mu e gama 0. O comportamento não estacionário em séries temporais é abordado por meio de várias abordagens. O palestrante destaca a importância de acomodar o comportamento não estacionário para obter uma modelagem precisa. Uma abordagem é transformar os dados para torná-los estacionários, como por meio de diferenciação ou aplicação da abordagem de Box-Jenkins de usar a primeira diferença. Além disso, exemplos de modelos de reversão de tendência linear são fornecidos como um meio de lidar com séries temporais não estacionárias.

O palestrante explora ainda mais processos não estacionários e sua incorporação em modelos ARMA. Se a diferenciação, primeiro ou segundo, produz estacionariedade de covariância, ela pode ser integrada na especificação do modelo para criar modelos ARIMA (Processos de média móvel integrados autoregressivos). Os parâmetros desses modelos podem ser estimados usando a estimativa de máxima verossimilhança. Para avaliar diferentes conjuntos de modelos e determinar as ordens dos parâmetros autorregressivos e de média móvel, são sugeridos critérios de informação como o critério de informação de Akaike ou Bayes.

A questão de adicionar variáveis adicionais ao modelo é discutida, juntamente com a consideração de penalidades. O palestrante enfatiza a necessidade de estabelecer evidências para incorporar parâmetros extras, como avaliar estatísticas t que excedem um determinado limite ou empregar outros critérios. O critério de informação de Bayes assume um número finito de variáveis no modelo, supondo que sejam conhecidas, enquanto o critério de Hannan-Quinn assume um número infinito de variáveis, mas garante sua identificabilidade. A seleção de modelos é uma tarefa desafiadora, mas esses critérios fornecem ferramentas úteis para a tomada de decisões.

Concluindo, o vídeo aborda vários aspectos da modelagem estatística e análise de séries temporais. Ele começa explicando a estimativa de máxima verossimilhança e sua relação com modelos de regressão linear normal. Os conceitos de estimativa M generalizada e estimativa M robusta são introduzidos. Um estudo de caso aplicando modelos de regressão linear para precificação de ativos é apresentado, seguido por uma explicação da análise de série temporal univariada. O teorema de representação de Wold e o método de decomposição de Wold são discutidos no contexto de séries temporais estacionárias de covariância. A importância de um número finito de parâmetros em modelos de séries temporais é enfatizada, juntamente com modelos autorregressivos e condições de estacionaridade. O vídeo termina abordando os processos autorregressivos, as equações de Yule-Walker, o método do princípio dos momentos, o comportamento não estacionário e a seleção de modelos usando critérios de informação.

  • 00:00:00 Nesta seção, o professor analisa o método de estimativa de máxima verossimilhança como o principal método de estimativa em modelagem estatística enquanto discute a função de verossimilhança e sua relação com modelos de regressão linear normal. O professor explica que as estimativas de máxima verossimilhança são valores que maximizam a função pela qual os dados observados são mais prováveis, e esses valores escalam os parâmetros desconhecidos em termos de quão provável eles poderiam ter gerado os valores dos dados.

  • 00:05:00 Nesta seção, o professor discute como resolver os problemas de estimação para modelos de regressão linear normal. A estimativa de probabilidade máxima da variância do erro é Q de chapéu beta sobre n, mas essa estimativa é tendenciosa e precisa ser corrigida dividindo-se por n menos a classificação da matriz X. Quanto mais parâmetros adicionados ao modelo, mais precisos são os valores ajustados, mas também aumenta o perigo de ajuste de curva. O teorema afirma que os mínimos quadrados, agora as estimativas de máxima verossimilhança, dos modelos de regressão são normalmente distribuídos, e a soma dos quadrados dos resíduos tem uma distribuição qui-quadrada com graus de liberdade dados por n menos p. A estatística t é uma forma crítica de avaliar a relevância de diferentes variáveis explicativas no modelo.

  • 00:10:00 Nesta seção, o vídeo explica o conceito de estimativa M generalizada, que envolve estimar parâmetros desconhecidos minimizando a função Q de beta. Ao escolher diferentes formas funcionais para h, que é uma soma de avaliações de outra função, diferentes tipos de estimadores podem ser definidos, como estimativa de mínimos quadrados e estimativa de máxima verossimilhança. O vídeo também discute estimadores M robustos, que envolvem definir a função chi para ter boas propriedades com estimativas e estimadores quantis. Estimadores robustos ajudam a controlar a influência indevida de valores muito grandes ou resíduos sob estimativa de mínimos quadrados.

  • 00:15:00 Nesta seção, o professor discute os estimadores M e como eles abrangem a maioria dos estimadores encontrados em modelos de ajuste. A classe é apresentada a um estudo de caso que aplica modelos de regressão linear à precificação de ativos. O modelo de precificação de ativos de capital é explicado para sugerir que os retornos das ações dependem do retorno do mercado como um todo, dimensionado pelo grau de risco da ação. O estudo de caso fornece os dados e detalhes necessários para coletá-lo usando R. O professor menciona os diagnósticos de regressão e como eles determinam a influência de observações individuais nos parâmetros de regressão. Finalmente, pontos de dados influentes são identificados usando alavancagem, e a definição e explicação são dadas.

  • 00:20:00 Nesta seção, o professor apresenta o conceito de adicionar outro fator, como o retorno do petróleo bruto, na modelagem de retornos de ações para ajudar a explicar os retornos. A análise mostra que o mercado, neste estudo de caso, não foi eficiente para explicar o retorno da GE; o petróleo bruto é outro fator independente que ajuda a explicar os retornos. Por outro lado, a Exxon Mobil, uma empresa petrolífera, tem um parâmetro de regressão que mostra como o petróleo bruto definitivamente tem impacto no seu retorno, uma vez que sobe e desce com os preços do petróleo. A seção termina com um gráfico de dispersão que indica observações influentes associadas à distância Mahalanobis dos casos do centróide das variáveis independentes.

  • 00:25:00 Nesta seção, o palestrante introduz o tópico de análise de séries temporais univariadas, que envolve a observação de uma variável aleatória ao longo do tempo e é um processo de tempo discreto. A definição de estacionariedade estrita e de covariância é explicada, sendo a estacionariedade de covariância mais fraca e exigindo que apenas a média e a covariância do processo permaneçam constantes ao longo do tempo. Modelos clássicos de modelos de média móvel autorregressiva e suas extensões para não estacionariedade com modelos de média móvel autorregressiva integrados também são discutidos, juntamente com como estimar modelos estacionários e testar a estacionaridade.

  • 00:30:00 Nesta seção do vídeo, o palestrante discute o teorema de representação de Wold para séries temporais estacionárias de covariância. O teorema afirma que uma série temporal estacionária de covariância com média zero pode ser decomposta em dois componentes: um processo linearmente determinístico e uma média ponderada de ruído branco com coeficientes dados por psi_i. O palestrante também explica que eta_t, o elemento de ruído branco, tem variância constante e não está correlacionado consigo mesmo e com o processo determinístico. O teorema da decomposição de Wold fornece uma estrutura atraente para modelar tais processos.

  • 00:35:00 Nesta seção, o método de decomposição de Wold para análise de séries temporais é discutido. Este método envolve inicializar o parâmetro p, que representa o número de observações passadas no termo linearmente determinístico, e estimar a projeção linear de X_t nos últimos valores de p lag. Ao conduzir métodos de séries temporais para analisar os resíduos, como avaliar se os resíduos são ortogonais a defasagens mais longas e consistentes com ruído branco, pode-se especificar um modelo de média móvel e avaliar sua adequação. O método de decomposição de Wold pode ser implementado como limite das projeções à medida que p aumenta, convergindo para a projeção dos dados sobre seu histórico e correspondendo aos coeficientes da definição da projeção. No entanto, a relação p/n precisa se aproximar de 0 para evitar a falta de graus de liberdade ao estimar modelos.

  • 00:40:00 Nesta seção, o palestrante enfatiza a importância de ter um número finito de parâmetros ao estimar modelos de séries temporais, pois isso ajuda a evitar o overfitting. O operador lag é uma ferramenta crucial em modelos de séries temporais em que uma série temporal é deslocada para trás em um incremento de tempo usando o operador L. Qualquer processo estocástico pode ser representado usando o operador lag com psi de L, que é um polinômio de ordem infinita de os atrasos. A função de resposta ao impulso refere-se ao impacto da inovação em um determinado ponto no tempo que afeta o processo naquele ponto e além. O palestrante usa um exemplo da mudança na taxa de juros do presidente do Federal Reserve para ajudar a explicar o impacto da inovação ao longo do tempo.

  • 00:45:00 Nesta seção, o conceito de resposta cumulativa de longo prazo é discutido em relação à análise de séries temporais. A resposta cumulativa de longo prazo é o impacto de uma inovação em um processo ao longo do tempo e o valor para o qual o processo está se movendo. Essa resposta é dada pela soma das respostas individuais, representada pelo polinômio de psi com um operador defasado. A representação Wold é uma média móvel de ordem infinita que pode ter uma representação autorregressiva usando um inverso do psi do polinômio L. A classe de processos de médias móveis autorregressivas, com definição matemática, também é apresentada ao visualizador.

  • 00:50:00 Nesta seção, o foco está nos modelos autorregressivos em modelos ARMA. Para entender melhor esses modelos, serão vistos casos mais simples, começando com modelos autorregressivos e passando para processos de média móvel. Também serão exploradas condições de estacionariedade, onde a função polinomial phi, se substituída por uma variável complexa z, será a equação característica associada ao modelo autorregressivo. O processo de X_t é estacionário de covariância se e somente se todas as raízes desta equação característica estiverem fora do círculo unitário, significando que o módulo do complexo z é maior que 1, e as raízes, se fora do círculo unitário, têm módulo maior do que 1.

  • 00:55:00 Nesta seção do vídeo, é discutido o conceito de estacionariedade e raízes unitárias em um processo autorregressivo de ordem um. A equação característica do modelo é apresentada e é determinado que a estacionariedade da covariância requer que a magnitude de phi seja menor que 1 em magnitude. A variância de X no processo autorregressivo mostra-se maior que a variância das inovações quando phi é positivo e menor quando phi é menor que 0. Além disso, demonstra-se que um processo autorregressivo com phi entre 0 e 1 corresponde a um processo exponencial de reversão à média que tem sido usado teoricamente para modelos de taxa de juros em finanças.

  • 01:00:00 Nesta seção, o foco está nos processos autorregressivos, especificamente nos modelos AR(1). Esses modelos envolvem variáveis que normalmente retornam a alguma média em curtos períodos de tempo, mas o ponto de reversão à média pode mudar em longos períodos de tempo. A palestra explica as equações de Yule-Walker, que são usadas para estimar os parâmetros dos modelos ARMA. Essas equações envolvem a covariância entre observações em diferentes defasagens, e o sistema de equações resultante pode ser resolvido para os parâmetros autorregressivos. Por fim, observa-se que as equações de Yule-Walker são frequentemente utilizadas para especificar modelos ARMA em pacotes estatísticos.

  • 01:05:00 Nesta seção, o método do princípio dos momentos para estimativa estatística é explicado, particularmente em modelos complexos onde as funções de verossimilhança são difíceis de especificar e computar, e usando estimativas imparciais de parâmetros. O modelo de média móvel é então discutido, com fórmulas para as expectativas de X_t, que incluem mu e gamma 0, calculadas. As acomodações para comportamento não estacionário em séries temporais também são discutidas, particularmente por meio da transformação de dados em estacionários, a abordagem de Box e Jenkins de usar a primeira diferença e exemplos de modelos de reversão de tendência linear.

  • 01:10:00 Nesta seção, o palestrante discute processos não estacionários e como incorporá-los em modelos ARMA. Ele explica que, se a primeira ou a segunda diferença resultar em estacionariedade de covariância, ela pode ser incorporada à especificação do modelo para criar modelos ARIMA, ou processos de média móvel integrados autoregressivos. Os parâmetros para esses modelos podem ser especificados usando máxima verossimilhança, e diferentes conjuntos de modelos e ordens de parâmetros autorregressivos e de média móvel podem ser avaliados usando critérios de informação como o critério de informação de Akaike ou Bayes.

  • 01:15:00 Nesta seção, o palestrante discute a questão de adicionar variáveis extras no modelo e qual penalidade deve ser aplicada. Ele sugere que é necessário considerar quais evidências devem ser exigidas para incorporar parâmetros extras, como estatísticas t que excedam algum limite ou outro critério. O critério de informação de Bayes assume que existe um número finito de variáveis no modelo e que as conhecemos, enquanto o critério de Hannan-Quinn assume um número infinito de variáveis no modelo, mas garante que sejam identificáveis. O problema de seleção de modelos é desafiador, mas pode ser resolvido usando esses critérios.
8. Time Series Analysis I
8. Time Series Analysis I
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

9. Modelagem de Volatilidade



9. Modelagem de Volatilidade

Este vídeo fornece uma ampla visão geral da modelagem de volatilidade, explorando vários conceitos e técnicas no campo. O palestrante começa apresentando os modelos de média móvel autorregressiva (ARMA) e sua relevância para a modelagem de volatilidade. Os modelos ARMA são usados para capturar a chegada aleatória de choques em um processo de movimento browniano. O palestrante explica que esses modelos assumem a existência de um processo, pi de t, que representa um processo de Poisson contando o número de saltos que ocorrem. Os saltos são representados por variáveis aleatórias, gama sigma Z_1 e Z_2, seguindo uma distribuição de Poisson. A estimação desses parâmetros é realizada utilizando a estimativa de máxima verossimilhança através do algoritmo EM.

O vídeo então se aprofunda no tópico de seleção e critérios de modelo. Diferentes critérios de seleção de modelos são discutidos para determinar o modelo mais adequado para um determinado conjunto de dados. O critério de informação de Akaike (AIC) é apresentado como uma medida de quão bem um modelo se ajusta aos dados, penalizando os modelos com base no número de parâmetros. O critério de informação de Bayes (BIC) é semelhante, mas introduz uma penalidade logarítmica para parâmetros adicionados. O critério de Hannan-Quinn fornece uma penalidade intermediária entre os termos logarítmicos e lineares. Esses critérios auxiliam na seleção do modelo ideal para modelagem de volatilidade.

A seguir, o vídeo aborda o teste Dickey-Fuller, que é uma ferramenta valiosa para avaliar se uma série temporal é consistente com um passeio aleatório simples ou exibe uma raiz unitária. O palestrante explica a importância desse teste na detecção de processos não estacionários, que podem representar desafios ao usar modelos ARMA. Os problemas associados à modelagem de processos não estacionários usando modelos ARMA são destacados e as estratégias para lidar com essas questões são discutidas.

O vídeo termina apresentando uma aplicação de modelos ARMA a um exemplo do mundo real. O palestrante demonstra como a modelagem de volatilidade pode ser aplicada na prática e como os modelos ARMA podem capturar a volatilidade dependente do tempo. O exemplo serve para ilustrar a relevância prática e eficácia das técnicas de modelagem de volatilidade.

Em resumo, este vídeo fornece uma visão geral abrangente da modelagem de volatilidade, abrangendo os conceitos de modelos ARMA, o teste Dickey-Fuller, critérios de seleção de modelos e aplicações práticas. Ao explorar esses tópicos, o vídeo oferece insights sobre as complexidades e estratégias envolvidas na modelagem e previsão de volatilidade em vários domínios, como mercados financeiros.

  • 00:00:00 O autor discute o modelo de volatilidade e como ele pode ajudar na estimação de um modelo estatístico. O autor observa que existem vários critérios de seleção de modelo que podem ser usados para determinar qual modelo é mais adequado para um determinado conjunto de dados.

  • 00:05:00 O critério de informação Akaike é uma medida de quão bem um modelo ajusta os dados, e está penalizando os modelos por um fator que depende do tamanho dos parâmetros do modelo. O critério de informação de Bayes é semelhante, mas tem uma penalidade de log n para parâmetros adicionados. O critério de Hannan-Quinn tem uma penalidade intermediária entre log n e dois. O teste Dickey-Fuller é um teste para verificar se uma série temporal é consistente com um passeio aleatório simples.

  • 00:10:00 Este vídeo fornece uma visão geral da modelagem de volatilidade, incluindo os conceitos de modelos de média móvel autorregressiva (ARMA) e o teste Dickey-Fuller. O vídeo passa a discutir os problemas que podem ocorrer quando um processo não estacionário é modelado usando modelos ARMA e como lidar com esses problemas. Por fim, o vídeo fornece uma aplicação de modelos ARMA a um exemplo do mundo real.

  • 00:15:00 Este vídeo fornece uma breve introdução à modelagem de volatilidade, incluindo uma discussão sobre as funções ACF e PACF, o teste Dickey-Fuller para raízes unitárias e diagnósticos de regressão.

  • 00:20:00 A volatilidade é uma medida da variabilidade dos preços ou retornos nos mercados financeiros. A volatilidade histórica é calculada tomando a diferença nos logs de preços durante um determinado período de tempo. Os modelos de volatilidade são projetados para capturar a volatilidade dependente do tempo.

  • 00:25:00 A volatilidade é uma medida de quanto o preço de um título varia ao longo do tempo. A volatilidade pode ser medida pela raiz quadrada da variância da amostra e pode ser convertida em valores anualizados. A volatilidade histórica pode ser estimada usando abordagens de métricas de risco.

  • 00:30:00 Os modelos de volatilidade podem ser usados para prever os preços futuros das ações, e o movimento browniano geométrico é um modelo comum usado. Choongbum entrará em mais detalhes sobre equações diferenciais estocásticas e cálculo estocástico em palestras posteriores.

  • 00:35:00 O modelo de volatilidade é um modelo matemático que prevê o preço de um título ao longo do tempo. O modelo usa uma distribuição gaussiana para calcular o preço em um determinado período de tempo. Quando a escala de tempo é alterada, o modelo precisa ser ajustado.

  • 00:40:00 A modelagem de volatilidade pode produzir resultados diferentes com base em como o tempo é medido. Por exemplo, em um modelo de Movimento Browniano Geométrico, os retornos diários são amostrados de uma distribuição Gaussiana, enquanto em um modelo normal, os percentis da distribuição Gaussiana ajustada são plotados. Em ambos os casos, a função de distribuição cumulativa do modelo ajustado deve ser centralizada em torno do percentil real.

  • 00:45:00 O estimador Garman-Klass é um modelo para estimar a volatilidade que leva em consideração mais informações do que apenas os preços de fechamento. Ele assume que os incrementos são um por dia, correspondendo a diariamente, e que a hora do dia em que o mercado abre (representada pelo pequeno f) é levada em consideração.

  • 00:50:00 Este modelo de volatilidade calcula a variância dos retornos de abertura para fechamento e a eficiência dessa estimativa em relação à estimativa de fechamento para fechamento.

  • 00:55:00 O modelo de volatilidade é uma equação diferencial estocástica que modela a volatilidade de um ativo financeiro. O artigo de Garman e Klass descobriu que o melhor estimador invariante à escala é uma estimativa que muda apenas por um fator de escala e que esse estimador tem uma eficiência de 8,4.

  • 01:00:00 Este vídeo aborda a modelagem de volatilidade, que é uma forma de lidar com a chegada aleatória de choques a um processo de movimento browniano. O modelo assume que existe um processo pi de t, que é um processo de Poisson que conta o número de saltos ocorridos. Esses saltos são representados por gama sigma Z_1 e Z_2, que são variáveis aleatórias com distribuição de Poisson. A estimativa de máxima verossimilhança desses parâmetros é feita usando o algoritmo EM.

  • 01:05:00 O vídeo "9. Volatility Modeling" aborda o algoritmo EM e os modelos ARCH, que são usados para modelar a volatilidade dependente do tempo. Os modelos ARCH permitem a dependência do tempo na volatilidade, mantendo ainda as restrições de parâmetros. Este modelo é utilizado para estimar as taxas de câmbio euro/dólar.

  • 01:10:00 A modelagem de volatilidade é o processo de estimar o processo subjacente que impulsiona os preços das ações. Isso envolve ajustar um modelo autorregressivo aos resíduos quadrados e testar a estrutura ARCH. Se não houver estrutura ARCH, o modelo de regressão não terá previsibilidade.

  • 01:15:00 O modelo GARCH é uma representação simplificada da volatilidade dos retornos quadrados de um determinado ativo. O modelo é capaz de ajustar os dados muito bem e possui propriedades que sugerem uma dependência do tempo na volatilidade.

  • 01:20:00 Este vídeo discute os benefícios do uso de modelos de volatilidade em comparação com outros modelos de previsão. Os modelos GARCH mostram-se particularmente eficazes na captura da volatilidade variável no tempo. O último dia para se inscrever para uma viagem de campo é na próxima terça-feira.
9. Volatility Modeling
9. Volatility Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

10. Precificação Regularizada e Modelos de Risco



10. Precificação Regularizada e Modelos de Risco

Neste vídeo abrangente, o tópico de precificação regularizada e modelos de risco para produtos de taxa de juros, especificamente títulos e swaps, é amplamente abordado. O palestrante começa abordando o desafio da má postura nesses modelos, onde até mesmo pequenas mudanças nas entradas podem resultar em saídas significativas. Para superar esse desafio, eles propõem o uso de funções de base suaves e funções de penalidade para controlar a suavidade da superfície de volatilidade. A regularização de Tikhonov é introduzida como uma técnica que adiciona uma penalidade à amplitude, reduzindo o impacto do ruído e melhorando a significância dos modelos.

O palestrante se aprofunda em várias técnicas empregadas pelos comerciantes neste campo. Eles discutem técnicas spline e análise de componentes principais (PCA), que são usadas para identificar discrepâncias no mercado e tomar decisões comerciais informadas. O conceito de títulos é explicado, abrangendo aspectos como pagamentos periódicos, vencimento, valor de face, títulos de cupom zero e títulos perpétuos. Ressalta-se a importância da construção de uma curva de rendimentos para precificar uma carteira de swaps com diferentes vencimentos.

Taxas de juros e modelos de preços para títulos e swaps são discutidos em detalhes. O palestrante reconhece as limitações dos modelos de número único para prever mudanças de preço e apresenta o conceito de swaps e como os traders cotam os níveis de oferta e oferta para a taxa de swap. A construção de uma curva de rendimento para swaps de preços é explicada, juntamente com a seleção de instrumentos de entrada para calibração e tipos de spline. O processo de calibração de swaps usando um spline cúbico e garantindo que eles sejam reavaliados ao par é demonstrado usando exemplos práticos.

O vídeo explora ainda mais a curva das taxas a termo de três meses e a necessidade de um preço justo que corresponda aos observáveis do mercado. O foco então muda para os spreads de negociação e para a determinação dos instrumentos mais líquidos. Os desafios de criar uma curva insensível às mudanças do mercado são discutidos, destacando os custos significativos associados a tais estratégias. A necessidade de modelos de cobertura aprimorados é abordada, com uma nova formulação geral para risco de portfólio apresentada. A análise de componentes principais é utilizada para analisar modos e cenários de mercado, permitindo que os traders façam hedge usando swaps líquidos e econômicos.

Precificação regularizada e modelos de risco são explorados em profundidade, enfatizando as desvantagens do modelo PCA, como instabilidade e sensibilidade a outliers. Os benefícios de traduzir o risco em números mais gerenciáveis e líquidos são destacados. O vídeo explica como restrições e reflexões adicionais sobre o comportamento das matrizes de risco podem aprimorar esses modelos. O uso de B-splines, funções de penalidade, matrizes L1 e L2 e a regularização de Tikhonov são discutidos como meios para melhorar a estabilidade e reduzir os erros de precificação.

O palestrante aborda os desafios de calibrar uma superfície de volatilidade, fornecendo insights sobre problemas subdeterminados e soluções instáveis. A representação da superfície como um vetor e o uso de combinações lineares de funções de base são explicados. O conceito de mal-posto é revisitado e a importância de restringir as saídas usando funções de base suave é enfatizada.

Várias técnicas e abordagens são abordadas, incluindo decomposição de valor singular truncado (SVD) e funções de ajuste usando técnicas de spline. A interpretação dos gráficos de interpolação e sua aplicação na calibração e arbitragem das discrepâncias do mercado são explicadas. Swaptions e seu papel na modelagem de volatilidade são discutidos, juntamente com as oportunidades que apresentam para os traders.

O vídeo conclui destacando a relevância dos modelos de precificação e risco regularizados na identificação de anomalias de mercado e na facilitação de decisões de negociação informadas. Ele enfatiza a liquidez dos títulos e o uso de swaps para construir curvas, ao mesmo tempo em que reconhece a dependência de modelos PCA na ausência de uma curva estável. No geral, o vídeo fornece uma compreensão abrangente de preços regularizados e modelos de risco para produtos de taxa de juros, equipando os espectadores com conhecimento valioso neste domínio.

  • 00:00:00 Nesta seção, o Dr. Ivan Masyukov, palestrante convidado do Morgan Stanley, discute preços regularizados e modelos de risco para produtos de taxa de juros, o que envolve a adição de restrições adicionais, também conhecidas como regularizadores, ao modelo. A palestra começa com uma explicação sobre títulos, um dos produtos de taxa de juros mais simples do mercado, e aborda seus pagamentos periódicos, vencimento e valor de face. Também são discutidos os títulos de cupom zero, que não pagam nada até o vencimento, e os títulos perpétuos, que oferecem pagamento infinito. A palestra termina com a explicação do diagrama de fluxo de caixa utilizado para análise, com setas verdes indicando algo recebido e setas vermelhas indicando algo pago.

  • 00:05:00 Nesta seção é introduzido o conceito de valor do dinheiro no tempo, onde quanto mais no futuro for um fluxo de caixa, menor será o fator de desconto, resultando em depreciação. Um valor justo dos fluxos de caixa calculados pode ser encontrado se tivermos fatores de desconto, que podem ser representados usando um modelo de desconto. Um modelo simples usando um parâmetro, o rendimento até o vencimento, é discutido. O preço de um título pode ser representado como uma combinação linear de fluxos de caixa futuros, e o rendimento do título pode ser encontrado resolvendo-o se o preço do título for conhecido ou vice-versa.

  • 00:10:00 Nesta seção, o conceito de precificação de títulos versus rendimento é discutido. O valor econômico dos títulos está no preço dos títulos e nos fluxos de caixa. O rendimento correlaciona os fluxos de caixa futuros com o preço do título e assume um desconto constante para todos os pontos no tempo; no entanto, nem sempre pode ser o ideal. A sensibilidade do preço do título ao rendimento e como ele muda com o mercado é vital para determinar a duração de um título. A duração de um título é uma fórmula de soma ponderada de tempo e proporcional aos valores presentes dos fluxos de caixa futuros. A relação entre o rendimento e o preço do título tem sinal negativo e a duração para um título de cupom zero é igual ao vencimento, enquanto a duração dos títulos de cupom regular é menor que o vencimento. O modelo para a duração dos títulos assume que todas as taxas se movem de maneira paralela.

  • 00:15:00 Nesta seção, o palestrante discute taxas de juros e modelos de precificação de títulos e swaps. Eles reconhecem que um modelo de número único pode não ser adequado para prever mudanças de preços e sugerem o uso de segundas derivadas para contabilizar perdas inexplicáveis. Com relação aos swaps, o palestrante explica como os traders cotam os níveis de oferta e oferta para a quantidade mais importante de um swap, a taxa de swap, usando o valor presente dos fluxos de caixa fixos e flutuantes. Eles também observam que entrar em um swap não requer nenhuma troca de dinheiro e que a taxa fixa é definida de forma que o valor presente dos fluxos de caixa fixos menos flutuantes seja líquido a zero.

  • 00:20:00 Nesta seção, é explicado o conceito de taxas de swap como uma soma ponderada de taxas a termo, com os pesos determinados por fatores de desconto. O vídeo explica a necessidade de construção de uma curva de juros para precificar toda uma carteira de swaps com vários vencimentos, bem como o processo de seleção de instrumentos de entrada para calibração e tipo spline. A etapa final é ajustar os pontos de controle para garantir que, quando os instrumentos forem reprecificados usando o objeto matemático, os resultados correspondam aos preços de mercado.

  • 00:25:00 Nesta seção, Ivan Masyukov explica como uma spline cúbica é usada para construir uma curva suave, na qual a forma funcional da forma da curva é um polinômio cúbico, mantendo o número máximo de derivadas para cada nó apontar. Os B-splines são introduzidos como um novo tipo de spline que pode ser representado como uma combinação linear de funções de base, permitindo que qualquer curva com esses pontos de nó seja representada. Masyukov continua explicando como calibrar os swaps usando um solucionador para garantir que eles sejam reavaliados ao par. Isso é demonstrado usando o exemplo de instrumentos de curva de rendimento e swaps de IRS com vencimentos de um a 30 anos e cotações de 0,33% até 2,67%.

  • 00:30:00 Nesta seção, Ivan Masyukov explica como a curva da taxa a termo de três meses, que é impulsionada principalmente pela taxa LIBOR para a frequência de pagamento de três meses na parte flutuante do swap de taxa de juros padrão em USD, é não é plano e é íngreme nos primeiros cinco anos e atinge um platô mais tarde com alguma característica na região de 20 anos. Como a curva não pode ser obtida assumindo que existe apenas um parâmetro de rendimento para tudo, eles precisam de algum prazo extra para obter um preço justo e igualar os observáveis do mercado. O prazo extra será uma pequena correção na curva de rendimentos, em vez de uma suposição aproximada de que a curva é plana. Essa abordagem é melhor para ter um modelo consistente para títulos e swaps em nosso portfólio e entender a liquidez dos títulos e os spreads de crédito.

  • 00:35:00 Nesta seção, o foco muda para como os spreads são negociados e quais instrumentos são considerados os mais líquidos. É revelado que o título é a opção mais líquida, enquanto o spread entre o swap de dez anos e o título é a segunda opção mais líquida. Essa mudança merece confiabilidade ao criar uma curva, pois uma pequena mudança nas entradas pode causar grandes variações nas saídas, o que é motivo de preocupação para os comerciantes. Uma situação típica é aquela em que um comerciante gostaria que o valor de seu modelo fosse insensível às mudanças no mercado, para isso ele precisaria comprar tantos swaps de um ano quanto mais 200, tantos swaps de dois anos quanto menos 1.3, e assim por diante. No entanto, pode ser caro, custando cerca de 3,6 milhões de dólares e proporcional à oferta de determinados instrumentos.

  • 00:40:00 Nesta seção, é discutida a necessidade de um melhor modelo de hedge, já que o método atual de hedge para traders não é eficaz. Uma nova formulação geral para o risco do portfólio é apresentada, caracterizada pelos vetores de risco do portfólio, o portfólio de hedge e os pesos desse portfólio. A análise de componentes principais é usada para abordar o problema e analisar os modos e cenários típicos do mercado, em que os traders escolhem swaps líquidos e baratos para se proteger. Um gráfico dos componentes principais típicos é apresentado, com o principal comportamento do mercado sendo que as taxas atualmente não se movem, mas se moverão no futuro devido à estimulação do Federal Reserve.

  • 00:45:00 Nesta seção, o palestrante discute preços regularizados e modelos de risco, especificamente as desvantagens do modelo PCA. O modelo PCA é formulado utilizando instrumentos de hedge para eliminar a necessidade de minimização, mas os coeficientes não são muito estáveis, principalmente para modais recentes no mercado. Além disso, o modelo é sensível a valores discrepantes e pode resultar em superajuste aos dados históricos, tornando arriscado presumir que funcionarão no futuro. As vantagens do modelo incluem ser capaz de traduzir o risco em números menores e mais líquidos que são ordens de magnitude menores do que antes, permitindo que os traders tomem decisões informadas.

  • 00:50:00 Nesta seção, o vídeo fala sobre precificação regularizada e modelos de risco, e como colocar restrições ou pensamentos adicionais sobre o comportamento das matrizes de risco pode melhorar a situação. O palestrante explica a interpretação do PCA da matriz de risco e como ela é uma combinação linear de componentes principais, produzindo uma mudança em um instrumento de hedge por vez. Eles também discutem uma abordagem que vai além dos dados históricos e constrói curvas de rendimento em termos de taxas futuras para minimizar a não suavidade ao penalizar as equações em que Jacobiana é uma matriz que traduz as mudanças das entradas da curva de rendimento. O vídeo também destaca como o mecanismo de precificação e o processo de calibração funcionam usando o modelo HJM para precificar a volatilidade.

  • 00:55:00 Nesta seção, o palestrante explica as equações de evolução das taxas a termo necessárias para a simulação de Monte Carlo, onde as taxas a termo são a quantidade que está sendo assimilada. O palestrante discute o desvio das taxas futuras, que tem alguma dependência das taxas futuras à potência de beta. A superfície de volatilidade é introduzida, o que fornece o número de volatilidade a ser usado para o calendário e o tempo futuro, e a correlação e a estrutura do fator são brevemente mencionadas. O palestrante explica que a superfície triangular é usada para a volatilidade da transição para cada seta e mostra um exemplo da superfície de volatilidade. O problema está em calcular a matriz triangular, que tem dimensão de 240 por 240, precisou de até 60 anos de dados, tornando-se uma tarefa desafiadora.

  • 01:00:00 Nesta seção do vídeo, o palestrante explica como abordar a questão da calibração de uma superfície de volatilidade. Como o número de elementos a serem calibrados é grande, uma solução formal armazenando uma matriz de 28K por 28K não é prática. Além disso, como há menos instrumentos de calibração do que elementos a serem calibrados, é um problema subdeterminado que produz soluções instáveis. Para resolver isso, eles representam a superfície como um vetor e usam uma combinação linear de funções de base que correspondem a funções razoáveis com o mesmo número de funções de base que os instrumentos de entrada. Enquanto calibra perfeitamente, a superfície resultante se parece menos com uma superfície de volatilidade e mais com o horizonte de Manhattan com o rio Hudson e formas de construção. Essa abordagem é comumente usada, mas produz resultados instáveis.

  • 01:05:00 Nesta seção do vídeo, o palestrante discute a questão da má postura nos modelos de precificação e risco, o que significa que pequenas mudanças nas entradas podem levar a mudanças drásticas nas saídas. Para resolver isso, eles sugerem colocar restrições nas saídas usando funções de base que são suaves para começar, como B-splines, e usar funções de penalidade para controlar a mudança e a suavidade da superfície de volatilidade. Ao fazer isso, eles podem produzir resultados significativos sem precisar calibrar exatamente cada instrumento de entrada. O palestrante demonstra como as funções básicas podem ser construídas em duas dimensões e combinadas usando combinações lineares.

  • 01:10:00 Nesta seção, o palestrante discute o conceito de precificação regularizada e modelos de risco. O palestrante explica que as matrizes L1 e L2 consistindo em valores de 1 e -1 podem ser usadas para penalizar o gradiente de um vetor se uma abordagem de suavidade for desejada. Para resolver um problema mal colocado onde pequenos ruídos e modos insignificantes podem causar mudanças substanciais na saída, a técnica de regularização de Tikhonov pode ser empregada. A técnica envolve adicionar uma penalidade à amplitude para reduzir o impacto do ruído. O palestrante destaca que, como sempre há incerteza nos números que estão sendo calibrados e o modelo nem sempre é perfeito, a regularização é necessária para minimizar os erros de precificação.

  • 01:15:00 Nesta seção, o conceito de precificação regularizada e modelos de risco são discutidos. A regularização de Tikhonov é introduzida como um método para melhorar a estabilidade em problemas mal condicionados. Ao penalizar a amplitude ou uma combinação linear da solução, a regularização pode fornecer um resultado mais significativo e realista, embora possivelmente com uma solução tendenciosa. O SVD truncado é outra abordagem que pode ser usada para selecionar apenas os valores singulares significativos, resultando em um modelo mais robusto. A chave é identificar e penalizar a quantidade específica que precisa de regularização, em vez de aplicar cegamente uma abordagem de livro didático.

  • 01:20:00 Nesta seção, Ivan Masyukov responde a perguntas do público sobre as técnicas usadas para ajustar funções, particularmente técnicas de spline. Ele explica que um spline ou interpolação é usado quando há um número limitado de entradas e você deseja desenhar no meio. Ele também discute a interpretação do gráfico de interpolação e como os comerciantes o usam para calibrar e arbitrar quaisquer discrepâncias que veem. Além disso, ele explica como as trocas são usadas na modelagem da volatilidade e como os traders negociam com base nas discrepâncias que veem.

  • 01:25:00 Nesta seção, o palestrante discute os modelos regularizados de precificação e risco utilizados pelos traders do mercado para encontrar anomalias no mercado e aproveitá-las por meio de negociações. Esses modelos podem incorporar entradas como suposições de suavidade sobre as taxas futuras ou combinações de análise de componentes principais (PCA). Embora os títulos sejam o instrumento mais líquido do mercado, eles não são negociados continuamente, tornando os swaps mais adequados para a construção de uma curva. Uma vez que a curva de swap é construída, os negociadores de títulos a usam para hedge porque os títulos são mais líquidos do que os swaps. No entanto, os comerciantes que apenas negociam títulos geralmente dependem de modelos PCA ou outros métodos devido à falta de uma curva estável.
10. Regularized Pricing and Risk Models
10. Regularized Pricing and Risk Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Ivan MasyukovThis...
 

11. Análise de Séries Temporais II


11. Análise de Séries Temporais II

Este vídeo investiga vários aspectos da análise de séries temporais, com base na discussão da aula anterior sobre modelagem de volatilidade. O professor começa apresentando os modelos GARCH, que oferecem uma abordagem flexível para medir a volatilidade em séries temporais financeiras. A utilização da estimativa de máxima verossimilhança em conjunto com modelos GARCH é explorada, juntamente com o uso de distribuições t como uma alternativa para modelar dados de séries temporais. A aproximação de distribuições t com distribuições normais também é discutida. Passando para séries temporais multivariadas, a palestra cobre a covariância cruzada e os teoremas de decomposição de Wold. O palestrante elucida como os processos autorregressivos vetoriais simplificam modelos de séries temporais de ordem superior em modelos de primeira ordem. Além disso, é discutido o cálculo da média para processos VAR estacionários e sua representação como um sistema de equações de regressão.

A palestra então se aprofunda no modelo de regressão multivariada para análise de séries temporais, enfatizando sua especificação por meio de modelos de regressão univariados separados para cada série componente. O conceito do operador de vetorização é introduzido, demonstrando sua utilidade na transformação do modelo de regressão multivariada em uma forma de regressão linear. O processo de estimativa, incluindo estimativa de máxima verossimilhança e critérios de seleção de modelo, também é explicado. A palestra termina apresentando a aplicação de modelos de autorregressão vetorial na análise de dados de séries temporais relacionadas a crescimento, inflação, desemprego e o impacto de políticas de taxa de juros. As funções de resposta ao impulso são empregadas para compreender os efeitos das inovações em um componente da série temporal sobre outras variáveis.

Além disso, é abordada a continuação da modelagem de volatilidade da aula anterior. Os modelos ARCH, que permitem a volatilidade variável no tempo em séries temporais financeiras, são definidos. O modelo GARCH, uma extensão do modelo ARCH com parâmetros adicionais, se destaca por suas vantagens sobre o modelo ARCH, oferecendo maior flexibilidade na modelagem da volatilidade. O palestrante enfatiza que os modelos GARCH assumem distribuições Gaussianas para as inovações nas séries de retorno.

Além disso, é explorada a implementação de modelos GARCH usando estimativa de máxima verossimilhança. O modelo ARMA para resíduos quadrados pode ser expresso como uma defasagem polinomial de inovações para medir a variância condicional. A raiz quadrada da variância de longo prazo é determinada garantindo que as raízes do operador estejam fora do círculo unitário. A estimativa de máxima verossimilhança envolve estabelecer a função de verossimilhança com base nos dados e parâmetros desconhecidos, com a função de densidade conjunta representada como o produto de sucessivas expectativas condicionais da série temporal. Essas densidades condicionais seguem distribuições normais.

Os desafios associados à estimativa de modelos GARCH, principalmente devido a restrições nos parâmetros subjacentes, são discutidos. Para otimizar uma função convexa e encontrar seu mínimo, é necessário transformar os parâmetros em um intervalo sem limitações. Após o ajuste do modelo, os resíduos são avaliados por meio de diversos testes para avaliar a normalidade e analisar as irregularidades. Um pacote R chamado rugarch é usado para ajustar o modelo GARCH para a taxa de câmbio euro-dólar, empregando um termo GARCH normal após ajustar o processo médio para retornos da taxa de câmbio. A ordem do processo autorregressivo é determinada usando o critério de informação de Akaike, e um gráfico quantil-quantil normal de resíduos autorregressivos é produzido para avaliar o modelo.

O palestrante também destaca o uso de distribuições t, que oferecem uma distribuição de cauda mais pesada em comparação com distribuições gaussianas, para modelar dados de séries temporais. Os modelos GARCH com distribuições t podem estimar efetivamente a volatilidade e calcular os limites de valor em risco. A distribuição t serve como uma boa aproximação para uma distribuição normal, e o professor incentiva a exploração de diferentes distribuições para aprimorar a modelagem de séries temporais. Além disso, é discutida a aproximação de distribuições t com distribuições normais. A distribuição t pode ser considerada uma aproximação razoável de uma distribuição normal quando tem 25-40 graus de liberdade. O palestrante apresenta um gráfico comparando as funções de densidade de probabilidade de uma distribuição normal padrão e uma distribuição t padrão com 30 graus de liberdade, demonstrando que as duas distribuições são semelhantes, mas diferem nas caudas.

Na palestra, o professor continua explicando a análise de dados de séries temporais usando modelos de autorregressão vetorial (VAR). O foco está em entender a relação entre as variáveis e o impacto das inovações nas variáveis de interesse. Para analisar as relações entre variáveis em um modelo VAR, são utilizadas a função de autocorrelação multivariada (ACF) e a função de autocorrelação parcial (PACF). Essas funções capturam os cross-lags entre as variáveis e fornecem informações sobre as interações dinâmicas entre elas. Ao examinar o ACF e o PACF, pode-se identificar as defasagens significativas e seus efeitos sobre as variáveis. Além disso, as funções de resposta ao impulso (FIRs) são empregadas para entender os efeitos das inovações nas variáveis ao longo do tempo. Uma inovação refere-se a um choque ou mudança inesperada em uma das variáveis. As IRFs ilustram como as variáveis respondem a uma inovação em um componente da série temporal multivariada. Essa análise ajuda a entender a propagação e a magnitude dos choques em todo o sistema.

Por exemplo, se ocorrer uma inovação na taxa de desemprego, os IRFs podem mostrar como esse choque afeta outras variáveis, como a taxa dos fundos federais e o índice de preços ao consumidor (IPC). A magnitude e a duração da resposta podem ser observadas, fornecendo informações sobre as interdependências e os efeitos colaterais dentro do sistema. Além dos IRFs, outras medidas estatísticas, como a decomposição da variância do erro de previsão (FEVD), podem ser utilizadas. O FEVD decompõe a variância do erro de previsão de cada variável nas contribuições de seus próprios choques e dos choques de outras variáveis. Esta análise permite quantificar a importância relativa de diferentes choques na condução da variabilidade de cada variável. Ao empregar modelos VAR e analisar ACF, PACF, IRFs e FEVD, os pesquisadores podem obter uma compreensão abrangente das relações e da dinâmica dentro de uma série temporal multivariada. Esses insights são valiosos para previsão, análise de políticas e compreensão das complexas interações entre variáveis econômicas.

Em resumo, a palestra enfatiza a aplicação de modelos VAR para analisar dados de séries temporais. Ele destaca o uso de ACF e PACF para capturar cross-lags, IRFs para examinar o impacto das inovações e FEVD para quantificar as contribuições de diferentes choques. Essas técnicas permitem uma compreensão mais profunda das relações e dinâmicas dentro de séries temporais multivariadas, facilitando a previsão precisa e a tomada de decisões políticas.

  • 00:00:00 Nesta seção, o professor discute a continuação da modelagem de volatilidade na aula anterior, abordando a definição de modelos ARCH que admitem volatilidade variável no tempo em séries financeiras. O modelo GARCH, uma extensão do modelo ARCH por meio de parâmetros adicionais, tem muito mais vantagens sobre o modelo ARCH e tem menos parâmetros. Ao adicionar o parâmetro extra que relaciona a volatilidade atual ao valor passado ou defasado, o modelo GARCH pode ser flexível na modelagem da volatilidade. O limite inferior da volatilidade está presente no modelo ARCH, fazendo com que este modelo tenha um limite inferior rígido, enquanto os modelos GARCH têm uma vantagem muito mais flexível na previsão dos níveis de volatilidade. Deve-se notar que nestes ajustes, estamos assumindo distribuições Gaussianas para as inovações na série de retornos.

  • 00:05:00 Nesta seção, o tópico são os modelos GARCH e sua implementação usando a estimativa de máxima verossimilhança. Com os modelos GARCH, podemos medir a volatilidade e expressar o modelo ARMA para os resíduos quadrados como um atraso polinomial de inovações. Para a variância condicional, podemos determinar a raiz quadrada da variância de longo prazo exigindo que as raízes do operador tenham raízes fora do círculo unitário. A estimativa de máxima verossimilhança requer a determinação da função de verossimilhança dos dados dados os parâmetros desconhecidos, e a função de densidade conjunta pode ser expressa como o produto de sucessivas expectativas condicionais da série temporal. Essas densidades condicionais são variáveis aleatórias normais.

  • 00:10:00 Nesta seção, o palestrante discute o desafio de estimar modelos GARCH devido a restrições nos parâmetros subjacentes, que precisam ser aplicadas. Para otimizar uma função convexa e encontrar o mínimo de uma função convexa, os métodos de otimização funcionam bem e é necessário transformar os parâmetros em uma escala em que sejam ilimitados em alcance. Após o ajuste do modelo, os resíduos precisam ser avaliados com vários testes de normalidade e analisando a magnitude das irregularidades. Com o pacote R chamado rugarch, o modelo GARCH para a taxa de câmbio euro-dólar com um termo GARCH normal é escolhido e ajustado após o ajuste do processo médio para retornos da taxa de câmbio. Para avaliar o modelo, o processo autorregressivo é ajustado usando o critério de informação de Akaike para escolher a ordem do processo autorregressivo e produzir um gráfico qq normal de resíduos autorregressivos.

  • 00:15:00 Nesta seção, o apresentador discute o uso de uma distribuição de cauda mais pesada, especificamente a distribuição t, para modelar dados de séries temporais. Quando comparada a uma distribuição gaussiana, a distribuição t acomoda melhor os valores altos e baixos dos resíduos. O apresentador mostra como os modelos GARCH com distribuições t podem estimar a volatilidade de forma semelhante aos modelos GARCH com distribuições gaussianas e podem ser usados para calcular o valor nos limites de risco. No geral, a distribuição t pode ser uma boa aproximação para uma distribuição normal, e o apresentador incentiva a exploração de diferentes distribuições para modelar melhor os dados de séries temporais.

  • 00:20:00 Nesta seção, o professor discute a aproximação da distribuição t com uma distribuição normal. Normalmente, uma distribuição t pode ser considerada uma boa aproximação de uma distribuição normal com 25-40 graus de liberdade. O professor mostra um gráfico comparando as funções de densidade de probabilidade para uma distribuição normal padrão e uma distribuição t padrão com 30 graus de liberdade. O gráfico demonstra que as duas distribuições são muito próximas, mas diferem nas caudas da distribuição. A distribuição t tem distribuições de cauda mais pesadas do que uma distribuição normal. O professor também discute o agrupamento de volatilidade e a capacidade do modelo GARCH de lidar com isso. Além disso, o professor observa que os retornos têm caudas mais pesadas do que as distribuições gaussianas, e o dever de casa aborda como o modelo GARCH pode lidar com isso.

  • 00:25:00 Nesta seção, o modelo GARCH e sua utilidade para modelar séries temporais financeiras são discutidos. O modelo GARCH é apropriado para modelar séries temporais estacionárias de covariância, onde a medida de volatilidade é uma medida do retorno em excesso ao quadrado e é essencialmente um processo estacionário de covariância com uma média de longo prazo. Os modelos GARCH são ótimos para descrever a volatilidade em relação à média de longo prazo e, em termos de sua utilidade para a previsão, eles preveem que a volatilidade retornará à média em alguma taxa. A taxa na qual a volatilidade reverte é dada pelo parâmetro de persistência, que pode ser medido por alpha_1 mais beta_1. Quanto maior for alpha_1 mais beta_1, mais persistente é a volatilidade. Existem muitas extensões dos modelos GARCH, e no próximo tópico, séries temporais multivariadas, será discutido o teorema de representação multivariada de Wold.

  • 00:30:00 Nesta seção, aprendemos sobre séries temporais multivariadas, que envolvem a extensão de séries temporais univariadas para modelar múltiplas variáveis que mudam ao longo do tempo. Nós estendemos a definição de estacionaridade de covariância para momentos finitos e limitados de primeira e segunda ordem, onde uma variável aleatória de valor M-dimensional é tratada como M séries temporais diferentes. Para a matriz de variância-covariância da t-ésima observação do processo multivariado, definimos gamma_0, que é o valor esperado de X_t menos mu vezes X_t menos mu prime. A matriz de correlação, r_0, é então obtida pré e pós-multiplicando a matriz de covariância gamma_0 por uma matriz diagonal com as raízes quadradas da diagonal desta matriz.

  • 00:35:00 Nesta seção, o conceito de matrizes de covariância cruzada foi introduzido, que analisa como os valores atuais de uma série temporal multivariada covariam com o k-ésimo atraso desses valores. Gamma_k, os valores do vetor do período atual, é covariado com o k-ésimo atraso desses valores. As propriedades dessas matrizes foram explicadas, com a diagonal de gamma_0 sendo a matriz de covariância de entradas diagonais de variâncias. Também foi mencionada a existência do teorema da decomposição de Wold, um teorema avançado, que estende o teorema da decomposição de Wold univariada. Esse teorema é útil para identificar julgamentos de causalidade entre variáveis em séries econômicas de tempo.

  • 00:40:00 Nesta seção, o conceito de representação da decomposição de Wold para um processo estacionário de covariância é introduzido. O processo é representado como a soma de um processo determinístico e um processo de média móvel de um ruído branco. Em um caso multivariado, o processo determinístico pode ser uma tendência linear ou exponencial, e o processo de ruído branco é um vetor m-dimensional com média 0 e uma matriz de variância/covariância semidefinida positiva. A inovação é a perturbação sobre o processo modelado que não pode ser previsto por informações prévias. A soma dos termos na matriz de covariância deve convergir para que o processo seja estacionário de covariância.

  • 00:45:00 Nesta seção, a decomposição de Wold é discutida como uma forma de representar os bits de informação que afetam o processo e não estavam disponíveis antes. A seção passa a discutir os processos autorregressivos vetoriais, que modelam como um determinado componente da série multivariada depende de outras variáveis ou componentes da série multivariada. O conceito de reexpressar um processo de ordem p como um processo de primeira ordem com autorregressões vetoriais é então explicado, que é uma técnica poderosa usada em métodos de séries temporais para simplificar a análise de modelos complicados.

  • 00:50:00 Nesta seção, o palestrante discute a representação de um processo estocástico multivariado usando vetores Z_t e Z_(t-1) e como ele pode ser transformado em um modelo de série temporal de primeira ordem com uma série multivariada maior. O processo é estacionário se todos os autovalores da matriz companheira A tiverem um módulo menor que 1, o que garante que o processo não terá comportamento explosivo quando incrementado ao longo do tempo. Este requisito é o mesmo que todas as raízes da equação polinomial estando fora do círculo unitário. A ordem do polinômio não é mencionada neste trecho.

  • 00:55:00 Nesta seção, o foco está no cálculo da média do processo VAR estacionário, considerando as expectativas em ambos os lados da equação. A média incondicional do processo é obtida resolvendo para mu na segunda linha para a terceira linha. O modelo vetorial de autorregressão é expresso como um sistema de equações de regressão, composto por m modelos de regressão correspondentes a cada componente da série multivariada. O modelo de regressão m-ésima modela a j-ésima coluna da matriz como Z beta j e epsilon j, onde Z é um vetor de valores defasados do processo multivariado. O cálculo assume que p observações pré-amostra estão disponíveis.

  • 01:00:00 Nesta seção, o palestrante explica o modelo de regressão multivariada para análise de séries temporais. O modelo consiste em um modelo de regressão linear sobre os lags de toda a série multivariada até p lags com seu parâmetro de regressão dado por βj, que corresponde aos vários elementos das matrizes phi. O palestrante define o modelo de regressão multivariada e explica como especificá-lo considerando o modelo de regressão univariada para cada série de componentes separadamente. Isso está relacionado a regressões aparentemente não relacionadas em econometria.

  • 01:05:00 Nesta seção da palestra, o professor discute os métodos de estimação dos parâmetros de uma regressão linear e como estimar variâncias e covariâncias de termos de inovação. O processo envolve a aplicação de métodos de estimativa diretos para o parâmetro de uma regressão linear e, em seguida, a estimativa das variâncias/covariâncias do termo de inovação. Um resultado significativo é que essas regressões componentes são a estimativa ideal para a regressão multivariada também. Os operadores de produto de Kronecker são usados nesta teoria, que se aplica a operadores vec que pegam uma matriz e empilham as colunas juntas.

  • 01:10:00 Nesta seção, o conceito de operador de vetorização é introduzido e seu uso na manipulação de termos em uma forma mais conveniente é explicado. O modelo de regressão multivariada é configurado usando uma estrutura matricial e é expresso em termos de forma de regressão linear. Ao vetorizar a matriz beta, épsilon e y, pode-se definir a função de verossimilhança na estimativa de máxima verossimilhança com esses modelos. Os parâmetros desconhecidos beta star, sigma, que são iguais à densidade conjunta deste modelo de regressão linear normal, correspondem ao que foi usado anteriormente na análise de regressão com uma definição mais complicada da matriz de variáveis independentes X star e da matriz de variância/covariância sigma estrela.

  • 01:15:00 Nesta seção, o conceito de log-verossimilhança concentrada é discutido e é revelado que a estimativa do parâmetro de regressão beta é independente da matriz de covariância sigma. Isso permite a concentração da função de verossimilhança, que precisa ser maximizada ao estimar a matriz de covariância. A maximização é feita através do logaritmo de um determinante de uma matriz menos n sobre 2 o traço dessa matriz vezes uma estimativa dela. Além disso, podem ser aplicados critérios de seleção de modelo, como o Critério de Informação de Akaike, o Critério de Informação de Bayes e o Critério de Hannan-Quinn. Por fim, é apresentado um exemplo de ajuste de autorregressões de vetores com variáveis macroeconômicas, demonstrando a importância de entender quais fatores afetam a economia em termos de crescimento, inflação, desemprego e o impacto das políticas de juros.

  • 01:20:00 Nesta seção, o palestrante discute o uso de modelos de autorregressão vetorial para analisar dados de séries temporais. As variáveis específicas que estão sendo estudadas são a taxa de desemprego, fundos federais e o IPC (uma medida de inflação). As versões multivariadas da função de autocorrelação e da função de autocorrelação parcial são usadas para capturar as defasagens cruzadas entre as variáveis nesses modelos. As funções de resposta ao impulso são então usadas para entender o impacto de uma inovação em um dos componentes da série temporal multivariada sobre as outras variáveis. Isso é importante para entender a conexão entre a representação da média móvel e esses modelos de séries temporais.
11. Time Series Analysis II
11. Time Series Analysis II
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

12. Análise de Séries Temporais III



12. Análise de Séries Temporais III

Neste vídeo do YouTube sobre análise de séries temporais, o professor aborda uma variedade de modelos e suas aplicações em diferentes cenários. O vídeo aborda tópicos como modelos de autorregressão vetorial (VAR), cointegração e modelos lineares de espaço de estado. Esses modelos são cruciais para prever variáveis como desemprego, inflação e crescimento econômico, examinando a autocorrelação e os coeficientes de autocorrelação parcial.

O vídeo começa apresentando a modelagem de espaço de estado linear e o filtro de Kalman, que são usados para estimar e prever modelos de séries temporais. A modelagem de espaço de estado linear envolve a configuração de equações de estado e observação para facilitar o processo de estimativa do modelo. O filtro de Kalman, uma ferramenta poderosa, calcula a função de verossimilhança e fornece termos essenciais para estimativa e previsão.

O palestrante então explica como derivar representações de espaço de estado para processos de média móvel autorregressiva (ARMA). Essa abordagem permite uma representação flexível das relações entre as variáveis em uma série temporal. O vídeo destaca a importância do trabalho de Harvey em 1993, que definiu uma representação de espaço de estado particular para processos ARMA.

Seguindo em frente, o vídeo explora a aplicação de modelos VAR a variáveis macroeconômicas para prever crescimento, inflação e desemprego. Ao analisar os coeficientes de autocorrelação e de autocorrelação parcial, os pesquisadores podem determinar as relações entre variáveis e identificar padrões e correlações. O vídeo fornece um exemplo de modelo de regressão, ilustrando como a taxa de fundos do Fed pode ser modelada em função da taxa de desemprego defasada, taxa de fundos do Fed e CPI. Este exemplo revela que um aumento na taxa de desemprego tende a levar a uma queda na taxa dos fundos federais no mês seguinte.

O conceito de cointegração é então introduzido, abordando séries temporais não estacionárias e suas combinações lineares. A cointegração envolve encontrar um vetor beta que produza um processo estacionário quando combinado com as variáveis de interesse. O vídeo discute exemplos como a estrutura a termo das taxas de juros, paridade do poder de compra e relações à vista e futuros. Uma ilustração usando contratos futuros de energia, especificamente contratos de petróleo bruto, gasolina e óleo para aquecimento, demonstra o conceito de cointegração.

O vídeo explora ainda mais a estimativa de modelos VAR e a análise de processos de autorregressão de vetores cointegrados. O trabalho de Sims, Stock e Watson é referenciado, o que mostra como o estimador de mínimos quadrados pode ser aplicado a esses modelos. Estimativa de máxima verossimilhança e testes de classificação para relacionamentos de cointegração também são mencionados. Um estudo de caso sobre dados de propagação de rachaduras é apresentado, incluindo testes de não estacionariedade usando um teste Dickey-Fuller aumentado. Em seguida, o vídeo se concentra nos dados futuros de petróleo bruto e na determinação da não estacionariedade e das ordens de integração. O procedimento de Johansen é empregado para testar o posto do processo cointegrado. Os autovetores correspondentes à relação estacionária fornecem informações sobre as relações entre futuros de petróleo bruto, gasolina (RBOB) e óleo para aquecimento.

A palestra então apresenta modelos lineares de espaço de estado como uma forma de expressar vários modelos de séries temporais usados em economia e finanças. A equação de estado e a equação de observação são explicadas, demonstrando a flexibilidade dessa estrutura de modelagem. O vídeo ilustra a representação de um modelo de precificação de ativos de capital com betas variáveis no tempo como um modelo de espaço de estado linear. Ao incorporar a dependência do tempo nos parâmetros de regressão, o modelo captura mudanças dinâmicas. Além disso, o palestrante discute o conceito de alteração dos parâmetros de regressão ao longo do tempo, assumindo que eles seguem caminhos aleatórios independentes. A equação conjunta do espaço de estados e sua implementação para regressões de atualização recursiva à medida que novos dados são adicionados são explicadas. Modelos autorregressivos de ordem P e modelos de média móvel de ordem Q são expressos como modelos de espaço de estado linear.

A palestra então se aprofunda na equação de estado e na equação de observação, enfatizando seu papel na transição entre os estados subjacentes. A derivação da representação do espaço de estados para processos ARMA é explorada, destacando a flexibilidade na definição de estados e a matriz de transformação subjacente.
A palestra fornece uma visão geral da aplicação de modelos lineares de espaço de estado para análise de séries temporais. O palestrante explica que esses modelos podem ser usados para estimar e prever variáveis de interesse, incorporando dados observados e estados subjacentes. Ao utilizar o filtro de Kalman, que é um algoritmo recursivo, os modelos podem calcular a distribuição condicional dos estados dados os dados observados, bem como prever estados e observações futuras.

A palestra enfatiza a importância de entender os principais componentes dos modelos lineares de espaço de estados. A equação de estado representa a dinâmica de transição dos estados subjacentes ao longo do tempo, enquanto a equação de observação relaciona os dados observados aos estados subjacentes. Essas equações, juntamente com a distribuição do estado inicial, definem a estrutura do modelo.
O palestrante passa a discutir o processo de estimação para modelos lineares de espaço de estados. A estimativa de máxima verossimilhança é comumente usada para estimar os parâmetros desconhecidos do modelo com base nos dados observados. O filtro de Kalman desempenha um papel crucial nesse processo ao calcular a função de verossimilhança, que mede a qualidade do ajuste entre o modelo e os dados.

Além disso, a palestra destaca que os modelos lineares de espaço de estados fornecem uma estrutura flexível para modelar vários fenômenos econômicos e financeiros. Eles podem ser usados para expressar modelos autorregressivos, modelos de média móvel e modelos ainda mais complexos, como o modelo de precificação de ativos de capital com betas variáveis no tempo. Essa versatilidade torna os modelos lineares de espaço de estado uma ferramenta valiosa para pesquisadores e profissionais em economia e finanças. Para ilustrar ainda mais as aplicações práticas de modelos lineares de espaço de estado, a palestra apresenta um estudo de caso sobre contratos futuros de petróleo bruto. Ao analisar a relação entre os preços de diferentes contratos futuros, como petróleo bruto, gasolina e óleo para aquecimento, o palestrante demonstra como modelos lineares de espaço de estado podem ser utilizados para identificar padrões, prever preços e avaliar riscos no mercado de energia.

Em resumo, o vídeo fornece uma visão abrangente dos modelos lineares de espaço de estados e suas aplicações na análise de séries temporais. Aproveitando o filtro de Kalman, esses modelos permitem que os pesquisadores estimem e prevejam variáveis de interesse, entendam a dinâmica dos estados subjacentes e capturem as relações complexas entre as variáveis. A palestra enfatiza a flexibilidade e utilidade dos modelos de espaço de estado linear em vários contextos econômicos e financeiros, tornando-os uma ferramenta valiosa para análise empírica e tomada de decisão.

  • 00:00:00 Nesta seção, o professor apresenta variáveis macroeconômicas que podem ser usadas para prever crescimento, inflação e desemprego na economia e se concentra em um resumo do modelo de ajuste de auto-regressão vetorial. As raízes do polinômio característico no modelo mostraram-se não estacionárias, indicando que uma série diferente deveria ser usada para modelar isso. Para eliminar essa não estacionariedade, o professor sugere modelar as primeiras diferenças, o que pode ser feito tomando as diferenças de todas as séries e eliminando os valores ausentes. O gráfico exibe as propriedades da série temporal da série de diferenças, incluindo funções de autocorrelação diagonal e correlações cruzadas, que se mostram estatisticamente significativas. Também é discutida a função de autocorrelação parcial, que envolve correlações entre variáveis e a defasagem de outra após explicar para todas as defasagens de menor grau.

  • 00:05:00 Nesta seção, o vídeo discute o uso de modelos autorregressivos vetoriais, que permitem aos pesquisadores modelar as relações estruturais entre múltiplas variáveis macroeconômicas. O exemplo concentra-se em três variáveis: a taxa de desemprego, a taxa dos fundos federais e o IPC. Ao examinar os coeficientes de autocorrelação e autocorrelação parcial, os pesquisadores podem determinar as relações entre essas variáveis e identificar padrões e correlações. O vídeo também fornece um modelo de regressão para a taxa de fundos do Fed em função da taxa de desemprego defasada, taxa de fundos do Fed e CPI. Esse modelo indica que, se a taxa de desemprego aumentar, a taxa do Fed provavelmente cairá no próximo mês. O vídeo enfatiza a importância de entender a relação sinal-ruído ao estimar os parâmetros autorregressivos e interpretar os coeficientes.

  • 00:10:00 Nesta seção do vídeo, o palestrante apresenta o conceito de cointegração, que é um tópico importante na análise de séries temporais que lida com séries temporais não estacionárias. A discussão começa com o contexto em que a cointegração é relevante e foca nos processos estocásticos que são integrados de alguma ordem d, significando que a d-ésima diferença é estacionária. Ao tomar os resultados das primeiras diferenças na estacionariedade, o processo perde algumas informações e a cointegração fornece uma estrutura para caracterizar sistematicamente todas as informações disponíveis para modelagem estatística. Um processo não estacionário ainda pode ter uma representação vetorial autorregressiva, que pode ser expressa como um atraso polinomial dos x igual ao épsilon de ruído branco, e reduzi-lo à estacionaridade requer tomar a d-ésima ordem de diferença.

  • 00:15:00 Nesta seção do vídeo, o conceito de cointegração é introduzido como uma forma de lidar com situações em que combinações lineares de séries temporais multivariadas podem ser estacionárias, o que significa que representam as características estacionárias do processo. A cointegração envolve encontrar um vetor beta tal que os pesos lineares nos x's e no beta primo X_t sejam um processo estacionário. O vetor de cointegração pode ser dimensionado arbitrariamente, mas é prática comum definir a primeira série de componentes do processo igual a 1. Essa relação surge de várias maneiras em economia e finanças, incluindo a estrutura a termo das taxas de juros, paridade do poder de compra, demanda por moeda , paridade de taxa de juros coberta, a lei de um preço e spot e futuros. Um exemplo de futuros de energia é dado para ilustrar o conceito.

  • 00:20:00 Nesta seção, o professor discute uma série temporal de contratos futuros de petróleo bruto, gasolina e óleo para aquecimento negociados na CME. Ele explica como os preços futuros da gasolina e do óleo para aquecimento devem depender do custo do insumo, que é o petróleo bruto. O professor mostra um gráfico dos preços dos futuros, que representam as mesmas unidades de produto em relação ao insumo. Ele observa que, embora os futuros de gasolina e óleo para aquecimento estejam consistentemente acima dos futuros de insumos de petróleo bruto, eles variam dependendo de qual é maior. A diferença entre o preço do futuro do óleo para aquecimento e o futuro do petróleo bruto representa o spread no valor da produção menos a entrada, que inclui o custo de refino, oferta e demanda, efeitos sazonais e o lucro da refinaria.

  • 00:25:00 Nesta seção, a palestra discute o modelo autorregressivo vetorial de ordem p que estende o modelo univariado. A palestra explica que o autorregressivo de uma série depende de todas as outras séries, que formam o ruído branco multidimensional com média 0 e alguma estrutura de covariância. O processo que está sendo integrado de ordem um também é discutido, juntamente com o processo de derivação que relaciona diferenças com alguns termos extras. No final, a palestra fornece a equação para a diferença da série, que é igual a uma constante mais uma matriz múltipla da série multivariada da primeira diferença, mais outra matriz vezes a segunda diferença, até o p-ésimo diferença.

  • 00:30:00 Nesta seção, o vídeo discute o processo de eliminação da não estacionariedade na série temporal usando séries defasadas e diferenciadas. O modelo expressa o modelo do processo estocástico para a série de diferenças, que é estacionária. Enquanto os termos que são matrizes múltiplas de defasagens são estacionários, o termo pi X_t contém os termos de cointegração que envolvem a identificação da matriz, pi. Como a série original tinha raízes unitárias, a matriz pi é de posto reduzido e define as relações de cointegração. As colunas de beta definem vetores linearmente independentes que cointegram x. A decomposição de pi não é única e, definindo o sistema de coordenadas no espaço r-dimensional onde o processo é estacionário, a matriz pi pode ser expressa como alfa beta primo.

  • 00:35:00 Nesta seção, o palestrante discute a estimativa de modelos de autorregressão de vetores e o trabalho de Sims, Stock e Watson que mostra como o estimador de mínimos quadrados do modelo original pode ser usado para uma análise de processos de autorregressão de vetores cointegrados . O palestrante também menciona a literatura avançada sobre métodos de estimação para esses modelos, incluindo a estimativa de máxima verossimilhança, que produz testes para a classificação da relação de cointegração. Um estudo de caso sobre os dados de crack spread também é discutido, o que envolve testar a não estacionariedade na série subjacente usando um teste Dickey-Fuller aumentado que produz um valor p de 0,164 para CLC1, o primeiro contrato mais próximo.

  • 00:40:00 Nesta seção, o apresentador discute a não estacionariedade e a ordem de integração dos dados futuros de petróleo bruto, sugerindo que acomodar a não estacionariedade é necessário ao especificar modelos. Os resultados da condução de um procedimento de Johansen para testar o posto do processo cointegrado sugerem que não há forte não estacionariedade, e o autovetor correspondente à relação estacionária é dado pelos coeficientes de 1 nos contratos futuros de petróleo bruto, 1,3 no RBOB e -1,7 em óleo de aquecimento. A combinação de petróleo bruto mais gasolina menos óleo para aquecimento parece estacionária ao longo do tempo, o que pode ser útil para refinarias que desejam proteger seus riscos de produção.

  • 00:45:00 Nesta seção, o palestrante apresenta o tópico de modelos de espaço de estados lineares, que podem ser usados para expressar muitos modelos de séries temporais usados em economia e finanças. O modelo envolve um vetor de observação no tempo t, um vetor de estado subjacente, um vetor de erro de observação no tempo t e um vetor de erro de inovação de transição de estado. O palestrante explica a equação de estado e a equação de observação no modelo, que são transformações lineares dos estados e observações mais ruído, e como elas podem ser escritas juntas em uma equação conjunta. A notação pode parecer complicada, mas oferece muita flexibilidade na especificação das relações entre as variáveis.

  • 00:50:00 Nesta seção, o palestrante discute a representação de um modelo de precificação de ativos de capital com betas variáveis no tempo como um modelo de espaço de estado linear. O modelo estende o anterior adicionando dependência de tempo aos parâmetros de regressão. O alfa e o beta agora variam com o tempo, com alfa sendo um passeio aleatório gaussiano e beta também sendo um passeio aleatório gaussiano. A equação de estado é ajustada adicionando termos de caminhada aleatória, tornando s_(t+1) igual a T_t s_t mais R_t eta_t, com uma representação complexa na estrutura de espaço de estado linear. A equação de observação é definida por uma matriz Z_t, que é uma matriz linha elemento unitário de r_(m,t). A matriz de covariância tem uma estrutura de blocos diagonais, com a covariância dos epsilons como H, e a covariância de R_t eta_t como R_t Q_t R_t transposta. Finalmente, o palestrante considera um segundo caso de modelos de regressão linear em que p variáveis independentes podem variar no tempo.

  • 00:55:00 Nesta seção, o conceito de alterar os parâmetros de regressão ao longo do tempo em uma série temporal é introduzido, assumindo que eles seguem caminhadas aleatórias independentes. A equação conjunta do espaço de estado é explicada, bem como a implementação do espaço de estado linear para atualização recursiva de regressões à medida que novos dados são adicionados. Modelos autorregressivos de ordem P também são discutidos, descrevendo a estrutura de como o modelo de espaço de estado linear evolui. Finalmente, o modelo de média móvel de ordem Q é expresso como um modelo de espaço de estado linear.

  • 01:00:00 Nesta seção, o palestrante discute a equação de estado e a equação de observação, que são usadas para fornecer uma transição entre os estados subjacentes. Eles usam um exemplo de um modelo de média móvel autorregressiva para demonstrar como a configuração de modelos de espaço de estado linear facilita o processo de estimativa do modelo. A palestra continua explicando como o trabalho de Harvey em 93 definiu uma representação de espaço de estado particular para o processo ARMA e como existem muitos modelos de espaço de estado linear equivalentes diferentes para um determinado processo, dependendo de como se define os estados e a transformação subjacente matriz T. Finalmente, a palestra prossegue para derivar a representação do espaço de estados para o processo ARMA.

  • 01:05:00 Nesta seção, o palestrante explica como criar um modelo simples para a matriz de transição T em modelos lineares de espaço de estado, resolvendo iterativamente o segundo estado usando o valor de observação e reescrevendo a equação do modelo. Esse processo substitui os estados subjacentes por observações e leva a uma matriz de transição T que possui componentes autorregressivos como a primeira coluna e um vetor de componentes de média móvel na matriz R. A eficácia da modelagem linear de estado-espaço reside na especificação completa com o filtro de Kalman, que calcula recursivamente as funções de densidade de probabilidade para os estados subjacentes em t+1, dadas informações até o tempo t, bem como a densidade conjunta do estado futuro e observação em t+1, informação dada até o tempo t, e a distribuição marginal da próxima observação dada informação até o tempo t. A implementação do filtro de Kalman requer notação envolvendo médias condicionais, covariâncias e erros quadráticos médios que são determinados por ômegas.

  • 01:10:00 Nesta seção, a transcrição discute o filtro de Kalman, que possui quatro etapas que ajudam a prever o vetor de estado e a observação em uma série temporal. A matriz de ganho do filtro é usada para ajustar a previsão do estado subjacente dependendo do que aconteceu e caracteriza quanta informação obtemos de cada observação. A incerteza no estado no tempo t é reduzida minimizando a diferença entre o que observamos e o que previmos. Há também uma etapa de previsão, que prevê o estado um período à frente e atualiza a matriz de covariância para estados futuros dado o estado anterior. Por fim, a etapa de suavização caracteriza a expectativa condicional dos estados subjacentes dadas informações em toda a série temporal.

  • 01:15:00 Nesta seção, o palestrante apresenta o filtro de Kalman como uma ferramenta para calcular a função de verossimilhança para modelos lineares de espaço de estados e para previsão sucessiva de um processo. Eles explicam que a função de verossimilhança é o produto das distribuições condicionais de cada observação sucessiva dada a história dos dados. O filtro de Kalman fornece todos os termos necessários para essa estimativa e, se os termos de erro forem normalmente distribuídos, as médias e variâncias dessas estimativas caracterizam as distribuições exatas do processo. Além disso, o filtro de Kalman atualiza as médias e as matrizes de covariância para os estados subjacentes e as distribuições das observações.
12. Time Series Analysis III
12. Time Series Analysis III
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

13. Modelos de commodities



13. Modelos de commodities

Neste vídeo, o palestrante mergulha no intrincado mundo dos modelos de commodities, destacando os desafios enfrentados pelos analistas quantitativos neste domínio. Eles fornecem exemplos perspicazes, como o lucro recorde da Trafigura em 2009, obtido por meio da compra e armazenamento estratégicos de petróleo bruto. O palestrante discute várias estratégias de licitação para armazenamento, problemas de otimização e a importância da estabilidade e robustez em modelos de commodities. Além disso, eles exploram as complexidades da modelagem de preços de commodities, concentrando-se nas considerações exclusivas necessárias para os preços de energia. O palestrante sugere uma metodologia alternativa adaptada ao cenário de commodities, distinguindo-a das abordagens usadas nos mercados de renda fixa, câmbio e ações.

O vídeo começa esclarecendo os problemas específicos enfrentados pelos analistas quantitativos no campo das commodities. Um exemplo ilustrativo é apresentado com a Trafigura, uma empresa que lucrou imensamente com a queda dramática do preço do petróleo em 2009. O palestrante explica como os contratos futuros funcionam nos mercados de commodities, enfatizando os conceitos de contango e backwardation. Contango refere-se a um cenário em que o preço à vista futuro excede o preço à vista atual, permitindo que os comerciantes gerem lucros mesmo durante períodos de queda de preço.

Em seguida, o palestrante investiga a estratégia de lucro da Trafigura entre fevereiro de 2009 e 2010, quando os preços do petróleo bruto subiram de US$ 35 para US$ 60 por barril. Ao tomar empréstimos a US$ 35, comprar e armazenar petróleo bruto e, posteriormente, vendê-lo ao preço mais alto de US$ 60, a Trafigura obteve um lucro notável de US$ 25 por barril. Essa estratégia foi empregada em escala massiva, envolvendo milhões de barris de armazenamento, resultando em ganhos significativos. O palestrante enfatiza a necessidade de estratégias cuidadosas em leilões de armazenamento para recuperar custos e gerar lucros adicionais de forma eficaz.

O vídeo passa a discutir duas estratégias distintas de licitação para armazenamento em modelos de commodities. A primeira estratégia envolve traders licitando contratos futuros para agosto e vendendo-os em dezembro sem a necessidade de tomar empréstimos. A segunda estratégia, utilizada pelos quants, consiste na venda da opção de spread entre os contratos de agosto e dezembro. O valor dessa opção é determinado pela diferença de preço entre os dois contratos, com diferenças positivas gerando lucro para o proprietário da opção e diferenças negativas não gerando lucro. Embora a segunda estratégia seja mais complicada, ela agrega valor à empresa.

As vantagens de vender uma produção em 1º de agosto usando um modelo de commodity são discutidas na seção subsequente. Ao vender a opção naquela data específica, o vendedor recebe um valor de opção determinado pela fórmula, normalmente superior ao valor de mercado atual. Isso dá ao vendedor uma posição vantajosa durante a licitação, permitindo-lhe obter uma margem de lucro à sua escolha. O palestrante também elucida o cálculo do risco de opção e como ativos reais ou físicos podem ser alavancados para mitigar esse risco.

Em seguida, o vídeo investiga a complexidade das opções de spread nos modelos de commodities, enfatizando a necessidade de determinar os portfólios de opções mais valiosos, considerando as restrições técnicas, contratuais, legais e ambientais. O palestrante destaca a importância de vender carteiras de opções de forma a garantir a extração de valor no vencimento da opção, considerando limitações nas taxas de injeção e retirada.

Um problema de otimização envolvendo modelos de commodities e armazenamento é discutido em outra seção. O problema gira em torno de extrair valor de uma opção de commodity quando a capacidade de armazenamento é esgotada, bem como vender do armazenamento quando ele fica vazio. O palestrante explica as variáveis e restrições envolvidas no problema e demonstra como otimizar o portfólio por meio de uma série de opções pode levar à maximização do lucro. A complexidade do problema requer o uso de variáveis booleanas e foco na maximização dos lucros.

O vídeo aprofunda ainda mais os desafios dos modelos de commodities, particularmente aqueles relacionados a taxas de injeção e retirada, restrições de capacidade e variáveis desconhecidas, como volumes e preços. Esses fatores contribuem para a natureza não linear do problema, tornando-o extremamente difícil de resolver ao lidar com inúmeras variáveis e restrições. Várias abordagens, incluindo aproximação, simulações de Monte Carlo e controle estocástico, podem ser empregadas para abordar a complexidade dos modelos de commodities. No entanto, a precisão dos resultados depende muito da precisão dos parâmetros utilizados. Mesmo a metodologia mais meticulosa pode levar a resultados errôneos se os parâmetros estiverem incorretos.

O palestrante passa a discutir a metodologia escolhida para modelagem de commodities, que prioriza robustez e estabilidade em vez de capturar toda a riqueza dos comportamentos dos preços. Eles advertem contra o excesso de parametrização de um modelo, pois isso pode introduzir instabilidade, fazendo com que até mesmo pequenas alterações afetem significativamente seu valor. Ao empregar uma abordagem diferente, eles priorizam a estabilidade e a robustez, permitindo que reguladores externos verifiquem o modelo. Além disso, cada componente do modelo pode ser negociado no mercado, o que tem uma importância substancial no cenário atual do mercado. O conceito de hedging dinâmico também é explicado, mostrando como ele pode ser usado para replicar o valor de uma opção e cumprir pagamentos sem um mercado de opções ativo, usando uma função de jogador simples.

O palestrante se aprofunda no conceito de replicar o pagamento de uma opção por meio de cobertura dinâmica. Essa estratégia permite que os traders vendam carteiras mesmo quando não há compradores. Eles enfatizam a importância de desenvolver uma estratégia para extrair valor e colaborar com os operadores de instalações de armazenamento para executar o plano com sucesso. O palestrante explica como essa abordagem pode ser estendida para modelar ativos físicos, como navios-tanque e usinas de energia, para maximizar os lucros tomando decisões informadas com base nos preços de eletricidade e combustível. Embora a natureza de cada ativo possa variar, a abordagem conceitual permanece a mesma, exigindo uma compreensão abrangente das complexidades e restrições exclusivas associadas a cada ativo.

Em uma seção subsequente, o vídeo explora o processo de cálculo do custo de produção de um megawatt-hora de energia com base na eficiência da usina. A eficiência, quantificada como a taxa de calor medida em mm BTUs, indica a quantidade de gás natural necessária para gerar um megawatt-hora de energia. A constante correspondente a uma usina de gás natural normalmente fica entre 7 e 20, com valores mais baixos indicando maior eficiência. Custos adicionais relacionados à produção de um megawatt-hora, como ar condicionado e mão de obra, também são considerados. O vídeo se aprofunda ainda mais na determinação do valor de uma usina de energia e na construção de distribuições de preços e custos de combustível para determinar um pagamento apropriado para a aquisição de uma usina de energia.

Os desafios de modelar preços de commodities, particularmente preços de energia, são discutidos na seção subsequente. A distribuição dos preços de energia não pode ser modelada com precisão usando o movimento browniano devido à presença de caudas gordas e picos nos dados. Além disso, a volatilidade nos preços de energia é significativamente maior em comparação com os mercados de ações. O palestrante enfatiza que esses desafios são comuns em todas as regiões e ressalta a necessidade de capturar a reversão à média nos picos para representar com precisão o comportamento do preço da energia. Outros fenômenos como alta curtose, mudança de regime e não estacionariedade também precisam ser incorporados aos modelos.

O vídeo explora os desafios associados à modelagem de preços de commodities, destacando várias abordagens, incluindo reversão à média, saltos e mudança de regime. No entanto, esses modelos tendem a ser complexos e difíceis de gerenciar. Em vez disso, o palestrante propõe uma metodologia exclusiva especificamente adaptada ao domínio das commodities, distinta das metodologias empregadas nos mercados de renda fixa, câmbio e ações. Essa abordagem está mais alinhada com as características e complexidades dos mercados de commodities.

O palestrante enfatiza que os preços das commodities são impulsionados principalmente pela dinâmica de oferta e demanda. No entanto, as metodologias tradicionais baseadas apenas em preços têm se mostrado inadequadas para captar as complexidades do comportamento dos preços das commodities. Para resolver esse problema, o palestrante sugere a incorporação de modelagem fundamental, garantindo que o modelo esteja alinhado com os dados de mercado disponíveis. Eles explicam como os preços de energia são formados por meio do leilão de propostas de usinas com eficiências variadas e como o preço final é determinado com base na demanda. O gráfico de dispersão resultante que descreve a relação entre demanda e preço demonstra uma distribuição diversa devido à influência de fatores aleatórios do preço do combustível.

Além disso, o palestrante explica que o preço da energia é determinado tanto pela demanda quanto pelo preço do combustível, pois o custo de geração depende do preço do combustível. Além disso, a ocorrência de interrupções precisa ser modelada, pois o mercado é finito e o preço da energia pode ser afetado se algumas usinas apresentarem indisponibilidade. Para incorporar esses fatores, o palestrante sugere a construção de uma pilha de geração, que representa o custo de geração para cada participante do mercado. Ao considerar os preços de combustível e interrupções, a pilha de geração pode ser ajustada para corresponder com precisão aos preços de mercado e preços de opção.

O vídeo avança para discutir como diferentes commodities podem ser modeladas para entender a evolução dos preços de energia. O palestrante explica o processo de modelagem do comportamento dos preços dos combustíveis, das interrupções e da demanda. Posteriormente, uma pilha de geração é construída, representando uma curva determinada por fatores como demanda, interrupções, custos variáveis e preços de combustível. Os parâmetros são cuidadosamente selecionados para corresponder à curva futura dos preços de energia e outros parâmetros de mercado relevantes. Essa abordagem permite a captura de picos de preços nos mercados de energia com relativa facilidade. O palestrante observa que o gás natural, o óleo para aquecimento e o óleo combustível são commodities armazenáveis, tornando seu comportamento mais regular e fácil de modelar.

Seguindo em frente, o palestrante destaca como os modelos de commodities podem ser aproveitados para prever o preço da eletricidade no mercado, levando em consideração fatores como temperatura, oferta e demanda. Por meio da utilização de simulações de Monte Carlo e de um entendimento abrangente da distribuição dos preços dos combustíveis, é possível obter simulações precisas de picos de preços causados por flutuações de temperatura. O modelo também captura com precisão a estrutura de correlação do mercado sem precisar dela como entrada. No entanto, enfatiza-se que a manutenção de tal modelo requer uma quantidade significativa de informações e organização, pois cada usina e mudança de mercado devem ser rastreadas.

Na seção final do vídeo, o palestrante reconhece os desafios associados à construção de modelos de commodities para diferentes mercados. O processo é um empreendimento enorme que requer anos de desenvolvimento, tornando-se um empreendimento caro. Apesar das complexidades envolvidas, o palestrante acredita que os temas abordados são um bom ponto para encerrar a discussão e convida o telespectador a tirar todas as dúvidas que ainda restam.

No geral, o vídeo fornece informações valiosas sobre os desafios enfrentados pelos analistas quantitativos ao criar modelos de commodities. Ele destaca a importância de priorizar a estabilidade e a robustez nas abordagens de modelagem, as complexidades da modelagem de preços de commodities e o papel de fatores fundamentais como oferta, demanda e preços de combustível na formação dos preços de energia. O palestrante também enfatiza a importância da colaboração com as partes interessadas do setor e o esforço contínuo necessário para manter e atualizar modelos de commodities para diferentes mercados.

  • 00:00:00 Nesta seção, o palestrante discute os problemas que os analistas quantitativos resolvem no mundo das commodities, em comparação com os de outros mercados. Ele deu um exemplo da Trafigura, que obteve lucro recorde em 2009, ano em que os preços do petróleo caíram para um nível historicamente baixo. Ele também fala sobre contratos futuros e como eles funcionam nos mercados de commodities, discutindo especificamente os conceitos de contango e backwardation. Contango significa que o preço à vista futuro é mais caro do que o preço à vista atual, o que permite que os comerciantes obtenham lucro mesmo em momentos em que os preços estão baixos.

  • 00:05:00 Nesta seção, o palestrante explica como a Trafigura ganhou dinheiro durante o período entre fevereiro de 2009 e 2010, quando os preços do petróleo bruto aumentaram de US$ 35 para US$ 60. A empresa tomou US$ 35 emprestados, comprou um barril de petróleo bruto e o armazenou até que pudesse ser vendido por um preço muito mais alto, a US$ 60. Isso lhes permitiu obter um lucro de $ 25 por barril, o que multiplicou mais de 50 a 60 milhões de barris de prateleiras de armazenamento até uma soma enorme. O palestrante enfatiza que, para licitar armazenamento em um leilão, é preciso traçar cuidadosamente uma estratégia de como recuperar o dinheiro pago pelo armazenamento e obter algum lucro adicional.

  • 00:10:00 Nesta seção, o vídeo discute duas estratégias de licitação para armazenamento em modelos de commodities. A primeira é uma estratégia padrão em que um trader dá lances em contratos futuros para agosto e vende em dezembro, sem precisar pedir dinheiro emprestado. A segunda estratégia é aquela utilizada pelos quants, onde eles vendem a opção de spread agosto-dezembro, determinada pela diferença entre os preços dos contratos de dezembro e agosto, com diferenças positivas pagando ao dono da opção e negativas pagando zero. A última estratégia é mais complicada, mas oferece valor agregado à empresa.

  • 00:15:00 Nesta seção, o palestrante discute as vantagens de vender uma produção no dia 1º de agosto usando um modelo de commodity. Ele explica que, ao vender a opção na data determinada, o vendedor obtém um valor determinado pela fórmula da opção, que normalmente é superior ao valor atual de mercado. Isso dá ao vendedor uma vantagem durante a licitação e eles podem obter uma margem de lucro de sua escolha. O palestrante também explica como calcular o risco da opção e como ativos reais ou físicos podem ser usados para mitigar o risco.

  • 00:20:00 Nesta seção, o palestrante discute o conceito de opção de spread e lança mais luz sobre sua complexidade na realidade. Ele explica que otimizar o valor de um portfólio de opções que podem ser vendidas contra o armazenamento exige determinar os portfólios de opções mais valiosos, considerando as restrições técnicas, contratuais, legais e ambientais. O palestrante destaca ainda que as carteiras de opções devem ser vendidas de forma a garantir que o valor possa ser extraído sempre que a opção expirar, havendo restrições na taxa de injeção e retirada.

  • 00:25:00 Nesta seção, o palestrante discute um problema de otimização envolvendo modelos de commodities e armazenamento. O problema envolve encontrar uma maneira de extrair valor de uma opção de commodity quando não há mais espaço no armazenamento e, inversamente, encontrar uma maneira de vender do armazenamento quando ele está vazio. O palestrante explica as variáveis e restrições do problema e mostra como é possível otimizar o portfólio por meio de uma série de opções. No geral, o problema de otimização é complexo, mas pode ser resolvido com a ajuda de variáveis booleanas e com foco na maximização dos lucros.

  • 00:30:00 Nesta seção, o palestrante discute a natureza complexa dos modelos de commodities que envolvem taxas de injeção e retirada, restrições de capacidade máxima e mínima e variáveis desconhecidas como volumes e preços. O problema torna-se não linear e muito difícil de resolver com um grande número de variáveis e restrições. Várias abordagens, incluindo aproximação, simulações de Monte Carlo e controle estocástico, podem ser usadas para resolver modelos de commodities, mas a precisão dos resultados depende da precisão dos parâmetros usados. Mesmo a metodologia mais precisa pode estar errada se os parâmetros estiverem incorretos.

  • 00:35:00 Nesta seção, o palestrante discute sua metodologia escolhida de modelagem de commodities, que é projetada para priorizar robustez e estabilidade em vez de capturar a riqueza de comportamentos de preço. Eles explicam que a parametrização excessiva de um modelo pode levar à instabilidade e a pequenas alterações que podem alterar substancialmente o valor. Para priorizar estabilidade e robustez, eles sacrificam parte do valor usando uma abordagem diferente. Além disso, o modelo que eles usam pode ser verificado por reguladores externos e todos os componentes do modelo podem ser negociados no mercado, o que é crucial nos dias atuais. Além disso, eles explicam o conceito de hedging dinâmico e como ele pode ser usado para replicar o valor de uma opção e atender aos pagamentos sem um mercado de opções ativo usando uma função de jogador simples.

  • 00:40:00 Nesta seção, o palestrante discute o conceito de replicar o pagamento de uma opção usando uma estratégia de cobertura dinâmica, permitindo que os traders vendam carteiras mesmo que não haja compradores. Ele enfatiza a importância de produzir uma estratégia para extrair valor, bem como trabalhar com quem opera instalações de armazenamento para executar o plano com sucesso. O palestrante explica como essa abordagem pode ser usada para modelar ativos físicos, como navios-tanque e usinas de energia, para maximizar os lucros tomando decisões informadas com base no preço da eletricidade e do combustível. Embora a natureza de cada ativo seja diferente, a abordagem conceitual permanece a mesma, exigindo uma compreensão das nuances e restrições de cada ativo.

  • 00:45:00 Nesta seção, o vídeo discute o processo de cálculo do custo de produção de um megawatt-hora de energia com base na eficiência da usina. A eficiência, conhecida como taxa de calor, é medida em mm BTUs e nos diz quantas unidades de gás natural precisam ser queimadas para produzir um megawatt-hora de energia. A constante correspondente a uma usina de gás natural é tipicamente entre 7 e 20, sendo 7 a mais eficiente. Outros custos associados à produção de um megawatt-hora, como ar condicionado e mão de obra, também são considerados. O vídeo então discute o processo de determinação do valor de uma usina de energia e construção de uma distribuição de preços e custos de combustível para calcular quanto pagar por uma usina de energia.

  • 00:50:00 Nesta seção, o palestrante discute os desafios dos modelos de commodities, especificamente no caso dos preços de energia. A distribuição dos preços de energia não pode ser modelada usando o movimento browniano devido à presença de caudas gordas e picos nos dados. A volatilidade também é muito maior do que nos mercados de ações. O palestrante destaca que esses desafios são comuns em todas as regiões e que a reversão da média nos picos é necessária para captar o comportamento dos preços de energia. Outros fenômenos que precisam ser capturados incluem alta curtose, mudança de regime e não estacionariedade.

  • 00:55:00 Nesta seção, o palestrante discute os desafios da modelagem de preços de commodities e como diferentes modelos têm sido usados, incluindo reversão à média, saltos e mudança de regime. No entanto, esses modelos são muito complexos e difíceis de gerenciar. O palestrante sugere uma metodologia completamente diferente do mundo de renda fixa, câmbio e ações, que é mais adequada e compreensível do ponto de vista das commodities.

  • 01:00:00 Nesta seção, o palestrante discute como os preços das commodities são impulsionados principalmente pela oferta e demanda. No entanto, as metodologias padrão para modelar preços de commodities com base apenas nos próprios preços provaram ser difíceis. O palestrante sugere a introdução de alguma modelagem fundamental para resolver esse problema, além de garantir que seu modelo corresponda a todos os dados de mercado disponíveis. O palestrante explica como são formados os preços de energia por meio do leilão de lances de usinas com diferentes níveis de eficiência e como o preço final é determinado com base na demanda. O gráfico de dispersão resultante da demanda versus preço mostra um gráfico gordo devido ao fator aleatório dos preços dos combustíveis.

  • 01:05:00 Nesta seção, o palestrante explica que o preço da energia é determinado tanto pela demanda quanto pelo preço do combustível, pois o custo de geração depende do preço do combustível. As interrupções também precisam ser modeladas porque o mercado é finito e o preço da energia pode ser afetado se algumas usinas de energia falharem. Para modelar esses fatores, o palestrante sugere a construção de uma pilha de geração, que é o custo de geração para cada participante do mercado. Conhecendo os preços e interrupções de combustível, pode-se gerar a pilha de batidas, que seguirá a pilha de geração e se ajustará para corresponder aos preços de mercado e preços de opções.

  • 01:10:00 Nesta seção, o palestrante explica como diferentes commodities podem ser modeladas e usadas para determinar a evolução dos preços de energia. Eles começam modelando a evolução dos preços de combustível, interrupções e demanda e, em seguida, constroem a pilha de geração, que é uma curva determinada pela demanda, interrupções, custos variáveis e combustível. Eles escolhem parâmetros para corresponder à curva futura de preços de energia e outros parâmetros de mercado. Essa abordagem permite a captura de picos nos preços da energia sem muito esforço, e o gás natural, o óleo para aquecimento e o óleo combustível são commodities armazenáveis, tornando seu comportamento mais regular e fácil de modelar.

  • 01:15:00 Nesta seção do vídeo, o palestrante explica como os modelos de commodities podem ser usados para prever o preço da eletricidade no mercado com base em fatores de temperatura e oferta e demanda. Usando simulações de Monte Carlo e compreendendo a distribuição dos preços dos combustíveis, eles são capazes de capturar e simular com precisão os picos de preços causados por mudanças de temperatura. Além disso, o modelo captura com precisão a estrutura de correlação do mercado sem precisar dela como entrada. No entanto, o lado negativo dessa abordagem é que ela requer muita informação e organização para manter devido à necessidade de acompanhar cada usina e quaisquer mudanças que possam ocorrer no mercado.

  • 01:20:00 Nesta seção, o palestrante fala sobre os desafios de construir modelos de commodities para diferentes mercados. Requer um grande empreendimento e leva anos para ser desenvolvido, tornando-se um processo caro. O palestrante acredita que este é um bom ponto para parar, mas convida os espectadores a fazerem perguntas.
13. Commodity Models
13. Commodity Models
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Alexander Eydelan...
 

14. Teoria da Carteira



14. Teoria da Carteira

A Teoria do Portfólio é um conceito fundamental em finanças que se concentra no desempenho e na construção ótima de portfólios de investimento. Envolve a análise dos retornos esperados, volatilidades e correlações de vários ativos para determinar a alocação de portfólio mais eficiente. A fronteira eficiente representa uma gama de carteiras viáveis com níveis variados de volatilidade. Ao introduzir um ativo livre de risco, o conjunto viável se expande para incluir uma combinação do ativo livre de risco e outros ativos, formando uma linha reta.

A estimativa precisa de parâmetros é crucial para avaliar portfólios e resolver o problema de programação quadrática para otimização de portfólio. As fórmulas são usadas para calcular os pesos ideais com base em várias restrições, como portfólios longos, restrições de retenção e restrições de exposição de referência. As funções de utilidade são empregadas para definir as preferências por riqueza e maximizar a utilidade esperada considerando a aversão ao risco.

O vídeo investiga a aplicação da teoria do portfólio usando fundos negociados em bolsa (ETFs) e estratégias neutras de mercado. Diferentes restrições podem ser implementadas para controlar riscos e variações em uma carteira, incluindo limites de exposição a fatores de mercado e tamanhos mínimos de transação. O palestrante explora a alocação ótima de nove ETFs investidos em diversos setores industriais no mercado americano, considerando ferramentas de análise de portfólio e o impacto das restrições de capital em portfólios ótimos. Estratégias neutras de mercado empregadas por fundos de hedge também são discutidas, destacando seu potencial de diversificação e correlação reduzida.

A seleção de medidas de risco apropriadas é crucial ao avaliar portfólios. A análise de média-variância é comumente usada, mas medidas de risco alternativas, como desvio médio absoluto, semivariância, valor em risco e valor em risco condicional, podem fornecer informações adicionais. O uso de modelos de fatores auxilia na estimativa da matriz de variância-covariância, aumentando a precisão da otimização do portfólio.

Ao longo do vídeo, o palestrante enfatiza a importância da estimativa precisa de parâmetros, o impacto das restrições na construção do portfólio e a importância das medidas de risco na avaliação do portfólio. A teoria da carteira fornece uma estrutura para a tomada de decisões racionais de investimento sob incerteza, considerando as preferências por retornos mais altos, menor volatilidade e aversão ao risco. Ao aplicar esses conceitos, os investidores podem construir carteiras bem equilibradas, adaptadas à sua tolerância ao risco e objetivos de investimento.

Nas seções subsequentes do vídeo, o palestrante explora ainda mais as complexidades da teoria do portfólio e suas implicações práticas. Aqui está um resumo dos principais pontos abordados:

  1. Teoria Histórica da Otimização de Portfólios: O palestrante começa discutindo os fundamentos históricos da otimização de portfólios, focando na Otimização de Média-Variância de Markowitz. Essa abordagem analisa as carteiras com base em seu retorno médio e volatilidade. Ele fornece uma estrutura para entender o trade-off entre risco e retorno e serve como base para a moderna teoria de portfólio.

  2. Teoria da Utilidade e Tomada de Decisão sob Incerteza: A teoria da utilidade, especificamente a teoria da utilidade de von Neumann-Morgenstern, é introduzida para guiar a tomada de decisão racional sob incerteza. As funções de utilidade são usadas para representar as preferências de riqueza de um investidor, considerando fatores como maiores retornos e menor volatilidade. O palestrante explica várias funções de utilidade comumente empregadas na teoria de portfólio, incluindo funções lineares, quadráticas, exponenciais, de potência e logarítmicas.

  3. Restrições e medidas alternativas de risco: o vídeo explora a inclusão de restrições na otimização de portfólio. Essas restrições podem ser implementadas para garantir critérios de investimento específicos, como carteiras long-only, restrições de rotatividade e limites de exposição a determinados fatores de mercado. Além disso, o palestrante discute medidas de risco alternativas além da análise de média-variância tradicional, como medidas que contabilizam assimetria, curtose e medidas de risco coerentes.

  4. Resolvendo o problema de otimização de portfólio: o palestrante fornece insights matemáticos para resolver o problema de otimização de portfólio. Formulando-o como um problema de programação quadrática, podem ser determinados pesos ótimos para o portfólio. As condições lagrangianas e de primeira ordem são utilizadas para resolver esses pesos, com a derivada de segunda ordem representando a matriz de covariância. A solução permite maximizar os retornos enquanto minimiza a volatilidade, sujeita a restrições especificadas.

  5. Fronteira Eficiente e Linha de Mercado de Capitais: Introduz-se o conceito de fronteira eficiente, que representa um conjunto de carteiras ótimas que atingem o maior retorno para um determinado nível de risco. O palestrante explica como se forma a fronteira eficiente a partir dos perfis de risco-retorno de diversas carteiras. Além disso, é discutida a linha de mercado de capitais, ilustrando a relação entre risco e retorno ao combinar o ativo livre de risco com a carteira de mercado. Ele permite que os investidores determinem o retorno esperado para qualquer nível de risco desejado.

  6. Estimativa de Parâmetros e Medidas de Risco: A importância da estimativa precisa de parâmetros é destacada, pois influencia significativamente a análise do portfólio. O palestrante enfatiza o uso de modelos de fatores para estimar a matriz de variância-covariância, fornecendo entradas mais precisas para otimização. Além disso, são explicadas diferentes medidas de risco, como desvio médio absoluto, semivariância, valor em risco e valor em risco condicional, com sua adequação dependendo das características específicas dos ativos que estão sendo investidos.

Ao longo do vídeo, o palestrante enfatiza a aplicação prática da teoria do portfólio usando fundos negociados em bolsa (ETFs) e estratégias neutras de mercado. O uso de restrições para gerenciar riscos e variações em uma carteira, o impacto das restrições de capital em carteiras ideais e os benefícios de estratégias neutras de mercado para diversificação são discutidos em detalhes.

No geral, o vídeo oferece uma visão abrangente da teoria do portfólio, abrangendo vários aspectos, desde os fundamentos históricos até a implementação prática. Ele enfatiza a importância da estimativa precisa, a incorporação de restrições, a escolha de medidas de risco e os benefícios potenciais de diferentes estratégias de investimento. Ao entender esses conceitos, os investidores podem tomar decisões informadas para construir portfólios alinhados com suas preferências de risco e metas de investimento.

  • 00:00:00 Nesta seção do vídeo, Peter Kempthorne aborda o tópico da teoria do portfólio, que é um dos tópicos mais importantes em finanças. Ele começa discutindo a teoria histórica da otimização de portfólio, que envolve a Otimização de Variância Média de Markowitz para analisar as características de desempenho de portfólios em termos de retorno médio e retornos de volatilidade. A análise é então estendida para incluir o investimento com um ativo livre de risco, e o tópico da teoria da utilidade, teoria da utilidade de von Neumann-Morgenstern, é introduzido para tomar decisões sob incerteza de maneira racional. Além disso, Kempthorne cobre restrições de otimização de portfólio e medidas de risco alternativas para estender a análise de média-variância simples. Por fim, ele explica a análise de período único, como representar um portfólio e como calcular o retorno esperado e a variação de um portfólio.

  • 00:05:00 Nesta seção, o palestrante apresenta o problema de análise de portfólio e considera uma configuração simplificada com dois ativos. O objetivo é encontrar carteiras ótimas investindo nesses dois ativos, considerando seu retorno esperado e volatilidade, e a possível correlação entre eles. A análise de média-variância é usada para analisar o conjunto de portfólio viável e determinar portfólios ótimos e subótimos. O palestrante destaca a importância da teoria de Markowitz e suas extensões em fornecer respostas elegantes a essas perguntas. Finalmente, uma simulação é realizada para examinar os retornos acumulados de cada ativo em diferentes carteiras.

  • 00:10:00 Nesta seção, um ativo simulado com retorno médio de 15% e volatilidade de 25% é discutido. O gráfico de dispersão dos retornos semanais não mostra nenhuma correlação aparente, embora haja uma correlação amostral. O conjunto viável de carteiras é mostrado no gráfico à direita, e alocar para o ativo 2 melhora o retorno da carteira sem comprometer a volatilidade. A carteira de variância mínima é também discutida, sendo a ponderação dos diferentes ativos inversamente proporcional ao quadrado da sua volatilidade. O gráfico azul está um pouco mais próximo do ativo 1, indicando um peso ligeiramente maior para o ativo 1.

  • 00:15:00 Nesta seção, o conceito de carteiras sub-ótimas é examinado, com a conclusão de que todos os pontos no gráfico de dispersão são carteiras sub-ótimas e um trade-off deve ser feito entre retorno e volatilidade. O benefício da diversificação quando dois ativos totalmente não correlacionados são agrupados é discutido, e o efeito de correlações negativas em conjuntos viáveis e redução da volatilidade é examinado. Uma correlação de -1 entre dois ativos pode levar a uma carteira de volatilidade zero, o que é raro nos mercados, mas na teoria de precificação, o retorno dessa carteira deve ser igual à taxa livre de risco.

  • 00:20:00 Nesta seção do vídeo, o palestrante discute a relação entre correlação e diversificação na teoria do portfólio. A simulação mostra que aumentar a correlação entre ativos resulta em menos benefício da diversificação, significando que a variância da carteira não pode ser tão reduzida. O palestrante destaca a importância de usar estimativas precisas para retornos médios, volatilidades e correlações ao avaliar portfólios, pois as estimativas de amostra podem diferir dos parâmetros populacionais e ter uma certa variabilidade. O problema de programação quadrática para otimização de portfólio envolve minimizar a volatilidade ao quadrado do portfólio sujeito a restrições na média do portfólio e investimento total, que pode ser resolvido usando um Lagrangeano e condições de primeira ordem.

  • 00:25:00 Nesta seção, o palestrante explica como calcular pesos e variância mínima. A condição de primeira ordem é uma solução porque a derivada de segunda ordem do Lagrangiano é igual à matriz de covariância, que pode resolver o problema. Ao substituir um determinado alfa nas soluções, a variância do portfólio ótimo também pode ser resolvida. O problema pode ser visto de duas outras maneiras, uma para maximizar o retorno sujeito a uma restrição de volatilidade e a outra para maximizar o retorno sujeito a um múltiplo negativo de variância. Estes são problemas equivalentes sendo resolvidos pelo mesmo lagrangeano.

  • 00:30:00 Nesta seção, aprendemos sobre a fronteira eficiente, que é a coleção de todas as soluções possíveis, dado um intervalo de retornos-alvo viáveis e valores de volatilidade. Em um caso de dois ativos, a fronteira eficiente é uma parábola e adicionar outro ativo cria várias parábolas, que definem o conjunto viável. A fronteira eficiente é o lado superior da curva. A adição de um ativo livre de risco expande o conjunto viável em uma linha reta entre o ponto do ativo livre de risco e qualquer ponto na fronteira eficiente, permitindo investimentos em uma combinação do ativo livre de risco e outros ativos.

  • 00:35:00 Nesta seção, o palestrante discute a matemática para resolver um problema em que o objetivo é minimizar a volatilidade, garantindo que o retorno seja igual a
    um valor específico. Ao investir em um ativo sem risco, os investidores podem obter um retorno maior com uma variação menor e expandir suas oportunidades de investimento. O palestrante fornece fórmulas para determinar um portfólio ótimo, que investe proporcionalmente em ativos de risco, mas difere na alocação de peso, dependendo do retorno desejado. Essas fórmulas também fornecem expressões de forma fechada para a variância do portfólio, que aumenta à medida que o retorno-alvo aumenta devido ao trade-off ao usar portfólios ótimos. A carteira ótima totalmente investida é chamada de carteira de mercado.

  • 00:40:00 Nesta seção, o palestrante explica o conceito de portfólio ótimo, que é o portfólio que maximiza o retorno médio de todos os portfólios. Eles mencionam que todo portfólio ótimo investe em uma combinação do ativo livre de risco e do portfólio de mercado, independentemente de quanto risco o investidor deseja assumir. O palestrante apresenta as expressões para retorno esperado e variância da carteira de mercado, e mostra a fórmula para os pesos da carteira ótima. Isso leva à definição da linha de mercado de capitais, que permite aos investidores determinar o retorno esperado para qualquer nível de risco.

  • 00:45:00 Nesta seção, é discutida a linha de mercado de capitais para otimização de portfólio. A linha representa o retorno esperado de qualquer carteira ótima, que é igual à taxa livre de risco mais um múltiplo do retorno por risco da carteira de mercado. Ao atribuir pesos adicionais à carteira de mercado e tomar dinheiro emprestado à taxa livre de risco, pode-se obter retornos e volatilidade mais altos além da carteira de mercado, levando a uma fronteira eficiente estendida. A seção termina com uma discussão sobre a teoria da utilidade de von Neumann-Morgenstern, que considera o processo de tomada de decisão para otimização de carteiras com base no retorno esperado e na volatilidade.

  • 00:50:00 Nesta seção, o conceito de teoria do portfólio é apresentado. A teoria da carteira envolve a tomada de decisões de investimento sob incerteza com base em uma função de utilidade especificada para a riqueza, com o objetivo de maximizar a utilidade esperada da riqueza. A teoria é poderosa em fornecer decisões racionais sob incerteza que levam em consideração preferências quanto a retornos mais altos, menor volatilidade e outros fatores definidos pela função de utilidade usada. As propriedades básicas das funções de utilidade são discutidas, incluindo os conceitos de aversão ao risco e aversão ao risco absoluto e relativo. As funções de utilidade usadas na teoria de portfólio incluem funções lineares, quadráticas, exponenciais, de potência e logarítmicas.

  • 00:55:00 Nesta seção, o palestrante discute a teoria do portfólio sob a função de utilidade quadrática e as hipóteses de retornos distribuídos gaussianos. Sob essas suposições, a análise de média-variância é a abordagem ideal para otimização de portfólio. No entanto, com diferentes funções de utilidade, como aquelas que consideram penalidades por assimetria ou curtose, podem ser necessárias extensões ao modelo básico. O palestrante também observa que os problemas práticos de otimização de carteiras envolvem restrições como carteiras compradas, restrições de retenção, restrições lineares simples, restrições de rotatividade e restrições de exposição de referência. Essas restrições devem ser consideradas ao ajustar as carteiras de um período para o próximo.

  • 01:00:00 Nesta seção, o palestrante discute diferentes tipos de restrições que podem ser aplicadas na otimização de portfólio para controlar riscos e variações em um portfólio. Isso inclui controlar o erro de rastreamento entre um portfólio e seu benchmark, limitar a exposição a diferentes fatores de mercado e aplicar tamanhos mínimos de transações e participações e restrições de números inteiros. Essas restrições podem ser expressas como restrições lineares e quadráticas nos pesos e podem ser implementadas juntamente com o problema de otimização de portfólio. O exemplo dado é sobre os fundos negociados em bolsa do setor dos EUA.

  • 01:05:00 Nesta seção, o palestrante discute o potencial dos fundos negociados em bolsa como forma de investir em mercados de ações. Eles analisam nove diferentes ETFs investidos em diversos setores industriais no mercado americano. Esses ETFs tiveram um desempenho diferente entre 2009 e a semana passada, o que destaca seu valor para um portfólio diversificado. O palestrante examina a alocação ideal desses ETFs nesse período por meio de ferramentas de análise de portfólio. Os resultados revelam que o ETF amarelo representa bens básicos de consumo para receber um peso alto, seguido pelo verde que representa energia e laranja pela saúde, o que implica que esses setores são promissores para investimento. Além disso, uma otimização média-variância é aplicada, restringindo um investimento máximo de 30% por ativo. O gráfico ilustra que essa restrição passa a ser ativa quando os retornos estão acima da taxa livre de risco, o que significa alocar mais ponderação a outros ETFs para aumentar a carteira discricionária dos consumidores.

  • 01:10:00 Nesta seção, o palestrante discute como as restrições de capital afetam os portfólios ideais. Eles apresentam um gráfico da fronteira eficiente e demonstram como os portfólios mudam à medida que as restrições são atingidas. Quando um retorno alvo de 10% é considerado com uma restrição de capital de 30%, o portfólio ótimo com uma volatilidade de 10% é mostrado. No entanto, quando a restrição de capital é reduzida para 15%, a fronteira eficiente diminui e os portfólios devem ser alocados para outros fundos negociados em bolsa, pois as restrições ocorrem mais cedo. A palestra destaca que as restrições de capital são realistas em determinadas circunstâncias e como elas impactam as políticas de investimento.

  • 01:15:00 Nesta seção, o palestrante discute a otimização de portfólio usando fundos negociados em bolsa (ETFs) e estratégias neutras de mercado. O exemplo dos ETFs mostra como o desempenho passado pode definir portfólios, mas não é realisticamente confiável. O palestrante explica como os fundos de hedge podem investir em modelos setoriais usando estratégias neutras de mercado, que tendem a ser menos correlacionadas e oferecem benefícios dramáticos de diversificação. O gráfico mostra que as alocações ideais nesses modelos neutros de mercado do setor podem ajudar a atingir uma volatilidade de 10%, e a combinação de modelos diferentes tem uma otimização de portfólio benéfica devido à sua correlação mais baixa.

  • 01:20:00 Nesta seção, o palestrante destaca que os resultados de retornos estimados, volatilidades estimadas e correlações podem ser impactados por escolhas de período de estimativa, erro de estimativa e diferentes técnicas que podem modular esses problemas. O uso de modelos fatoriais para estimar a matriz de variância-covariância resulta em entradas mais precisas para a otimização. O palestrante também discute diferentes medidas de risco, como desvio médio absoluto, semivariância e medidas de valor em risco, que agora são padrão no gerenciamento de portfólio e no gerenciamento de ativos de risco. Há também uma extensão do valor em risco chamada valor condicional em risco. As medidas de risco adequadas dependem dos ativos que estão sendo investidos, e há toda uma discussão sobre medidas de risco coerentes para análise de risco.
14. Portfolio Theory
14. Portfolio Theory
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
 

15. Modelagem Fatorial



15. Modelagem Fatorial

Nesta seção, o vídeo investiga os aspectos práticos da modelagem de fatores, incluindo a estimativa de parâmetros subjacentes e a interpretação de modelos de fatores. O palestrante enfatiza a importância de ajustar os modelos a períodos de dados específicos e reconhece que modelar a dinâmica e as relações entre os fatores é crucial.

O vídeo explica que os métodos de estimativa de máxima verossimilhança podem ser empregados para estimar os parâmetros dos modelos fatoriais, incluindo as cargas fatoriais e o alfa. O processo de estimativa envolve o uso de fórmulas de regressão com as cargas fatoriais estimadas e valores alfa para estimar as realizações fatoriais. O algoritmo EM (Expectation-Maximization) destaca-se como uma poderosa metodologia de estimativa para funções de verossimilhança complexas, pois estima iterativamente variáveis ocultas assumindo variáveis ocultas conhecidas.

A aplicação da modelagem de fatores em mercados de commodities é discutida, enfatizando a identificação de fatores subjacentes que impulsionam retornos e covariâncias. Esses fatores estimados podem servir de insumos para outros modelos, possibilitando um melhor entendimento do passado e das variações do mercado. O palestrante também menciona a flexibilidade de considerar diferentes transformações de fatores estimados usando a matriz de transformação H.

Os testes de razão de verossimilhança são introduzidos como um meio de testar a dimensionalidade do modelo fatorial. Ao comparar a probabilidade do modelo de fator estimado com a probabilidade de um modelo reduzido, a significância e a relevância de fatores adicionais podem ser avaliadas. Essa abordagem de teste ajuda a determinar o número apropriado de fatores a serem incluídos no modelo.

A seção conclui destacando a importância de modelar a dinâmica dos fatores e suas relações estruturais. Os modelos de fatores fornecem uma estrutura para entender a interação entre os fatores e seu impacto nos retornos e covariâncias dos ativos. Ao considerar a dinâmica e as relações estruturais, investidores e analistas podem obter informações valiosas sobre os impulsionadores subjacentes dos mercados financeiros.

No geral, esta seção expande o tópico de modelagem de fator, explorando a estimativa de parâmetros, a interpretação de modelos de fator e a aplicação de modelagem de fator em mercados de commodities. A seção enfatiza a necessidade de técnicas de modelagem adequadas e compreensão da dinâmica e relações entre fatores para obter insights significativos sobre os mercados financeiros.

  • 00:00:00 Nesta seção, o tópico discutido é a modelagem de fatores, que visa usar a análise multivariada para modelar mercados financeiros usando fatores para explicar retornos e covariâncias. Existem dois tipos de modelos de fatores em que os fatores podem ser observáveis ou ocultos, e os modelos de fatores estatísticos são usados para especificar esses modelos. O modelo de fator linear usa os fatores f1 até fk, que é um modelo de espaço de estados para o valor do processo estocástico que depende dos coeficientes beta_1 até beta_k. A configuração se parece com um modelo de regressão padrão, e os vetores beta_i são chamados de cargas de fator com fatores específicos sendo denominados como o epsilon do ativo i, período t. O objetivo é caracterizar retornos e covariâncias usando um número modesto de fatores subjacentes em comparação com o grande número de títulos, simplificando bastante o problema.

  • 00:05:00 Nesta seção, o vídeo discute um modelo de fator para explicar os retornos de ativos com base em fatores subjacentes. O termo residual é considerado aleatório e assumido como ruído branco com média 0. Este modelo assume que os retornos dos ativos dependem dos fatores subjacentes com uma média, mu_f, e uma matriz de covariância, omega_f. A matriz psi representa uma matriz diagonal com as variações específicas dos ativos subjacentes. A matriz de covariância para o vetor geral do processo estocástico de variáveis m pode ser obtida usando as expectativas e covariâncias condicionais e incondicionais. A covariância incondicional de x é igual à expectativa da covariância do termo residual mais duas vezes a covariância entre o valor esperado de x e o termo residual. O número de parâmetros para a matriz de covariância é m vezes m mais 1 sobre 2.

  • 00:10:00 Nesta seção, o conceito de modelo de fator é introduzido como um meio de reduzir o número de parâmetros envolvidos em uma regressão multivariada, com atenção específica dada à interpretação do modelo de fator como uma série de regressões de séries temporais. O foco está em agrupar tudo para todos os ativos de uma só vez, o que é computacionalmente eficiente em ajustá-los. O modelo de fator mais simples, o modelo de fator único de Sharpe, é apresentado onde o excesso de retorno das ações pode ser modelado como uma regressão linear sobre o excesso de retorno do mercado, escalonando o risco pelo beta_i de diferentes ativos.

  • 00:15:00 Nesta seção, o vídeo discute a matriz de covariância de ativos na modelagem de fatores e como ela pode ser simplificada usando um modelo para modelar a covariância, que pode ser útil no gerenciamento de portfólio e gerenciamento de riscos. O processo de estimação do modelo de índice único de Sharpe também é explicado, juntamente com o conceito de variáveis de fator comum que podem ser observadas como potenciais candidatas a serem um fator relevante em um modelo de fator linear. A eficácia de um fator potencial é determinada ajustando o modelo e vendo o quanto ele contribui para a matriz de covariância geral.

  • 00:20:00 Nesta seção, o vídeo descreve a modelagem de fatores e a abordagem de transformar fatores em fatores surpresa para modelar variáveis macroeconômicas. O poder de incorporar mudanças imprevistas nesses fatores é discutido, e essa abordagem é amplamente aplicada agora. O vídeo também explica como estimar os parâmetros subjacentes usando métodos de regressão simples e as suposições de Gauss-Markov. Também é fornecido um exemplo da Abordagem BARRA, que usa variáveis de fator comum com base em atributos fundamentais ou específicos de ativos.

  • 00:25:00 Nesta seção, é discutida a abordagem Fama-French para modelagem de fatores e análise de risco, que envolve classificar ações com base em fatores comuns, como valor de mercado e valor versus crescimento, e dividi-los em quintis para médias ponderadas iguais . O modelo de fator da indústria BARRA, que divide as ações em diferentes grupos da indústria, também é mencionado como um caso simples de modelagem de fatores. As realizações dos fatores não são observadas, mas estimadas na aplicação desses modelos, permitindo que a correlação com os retornos dos ativos individuais seja calculada. No geral, essas abordagens continuam a ser usadas extensivamente na modelagem de fatores hoje.

  • 00:30:00 Nesta seção, o conceito de modelos de fatores da indústria é introduzido. Especificamente, os modelos de fatores da indústria permitem a associação de carregamentos de fatores, que são usados para carregar cada ativo em termos do grupo da indústria a que pertence. O problema com os modelos de fatores da indústria é como especificar a realização dos fatores subjacentes, que podem ser estimados com um modelo de regressão. A estimativa das realizações dos fatores assume que a variabilidade dos componentes de x tem a mesma variância, mas na verdade há heterocedasticidade nesses modelos. No geral, esta seção fornece uma visão geral da estimativa de matrizes de covariância e estimativas de regressão para modelos de fatores da indústria.

  • 00:35:00 Nesta seção do vídeo, o foco está na heterocedasticidade na estimativa dos parâmetros de regressão e seu impacto na otimização do portfólio, onde os ativos são ponderados por seus retornos esperados e penalizados pela alta variância. Portfólios que imitam fatores são usados para determinar o valor real da negociação com fatores como no modelo Fama-French, e a realização de cada fator é uma soma ponderada dos retornos dos ativos subjacentes. Ao normalizar os pesos de linha das realizações k-dimensionais, os portfólios de imitação de fatores que interpretam investimentos potenciais podem ser definidos para alocação de ativos.

  • 00:40:00 Nesta seção, o palestrante discute modelos de fatores estatísticos para analisar séries temporais de retornos de ativos para m ativos em T unidades de tempo, onde os fatores subjacentes são desconhecidos. O palestrante explica a análise fatorial e a análise de componentes principais como métodos para descobrir os fatores subjacentes, que podem ser definidos em termos dos próprios dados. O palestrante observa que há flexibilidade na definição do modelo de fator e que qualquer especificação dada da matriz B ou fatores f pode ser transformada por ak por k matriz invertível H.

  • 00:45:00 Nesta seção, o conceito de modelagem de fatores e transformações são discutidos, destacando como a função linear permanece a mesma em termos da matriz de covariância dos fatores subjacentes. A discussão segue para a definição de uma matriz H que diagonaliza os fatores, o que permite a consideração de modelos de fatores com componentes de fatores não correlacionados. Fazer certas suposições, como fatores ortonormais e de média zero, simplifica o modelo para a matriz de covariância sigma_x como as cargas de fator B vezes sua transposta, mais uma matriz diagonal. A estimativa de máxima verossimilhança também é discutida no contexto de modelos de fator linear normal com variáveis aleatórias subjacentes normalmente distribuídas, levando à função de densidade conjunta dos dados.

  • 00:50:00 Nesta seção, o vídeo discute a modelagem de fatores e como os métodos de estimativa de máxima verossimilhança podem ser aplicados para especificar todos os parâmetros das matrizes B e psi usando o algoritmo EM. As realizações dos fatores podem ser estimadas usando a fórmula de regressão com estimativas para as cargas dos fatores e alfa. O algoritmo EM é uma metodologia de estimativa poderosa que pode simplificar funções de verossimilhança complexas estimando variáveis ocultas, assumindo que as variáveis ocultas são conhecidas e iterando esse processo. As realizações dos fatores podem ser usadas para modelagem de risco.

  • 00:55:00 Nesta seção, o palestrante discute o uso da análise de fatores estatísticos nos mercados de commodities e identifica os fatores subjacentes que impulsionam retornos e covariâncias. Os fatores subjacentes estimados também podem ser usados como entradas para outros modelos, o que é útil para entender o passado e como eles variam. O palestrante também menciona a flexibilidade de considerar diferentes transformações de qualquer conjunto de fatores estimados pela matriz H para transformação. Além disso, é mencionado o uso da análise fatorial estatística para interpretar os fatores subjacentes, com aplicações na medição do QI e na descoberta de rotações das cargas fatoriais que tornam os fatores mais interpretáveis. Finalmente, a seção cobre testes de razão de verossimilhança e testes para a dimensionalidade do modelo fatorial.

  • 01:00:00 Nesta seção é introduzido o conceito de análise de componentes principais (PCA), que é um arcabouço teórico que utiliza autovalores e autovetores da matriz de covariância para reduzir a estrutura multivariada a um espaço dimensional menor. O PCA cria um novo sistema de coordenadas que não altera a posição relativa dos dados, mas apenas gira os eixos de coordenadas e simplifica
    a transformação afim da variável original x. As variáveis componentes principais têm média 0 e uma matriz de covariância dada pela matriz diagonal de autovalores, e representam um modelo de fator linear com cargas fatoriais dadas por gamma_1 e um termo residual dado por gamma_2 p_2. No entanto, o vetor gamma_2 p_2 pode não ter uma matriz de covariância diagonal.

  • 01:05:00 Nesta seção, o vídeo explica as diferenças entre modelos de fator linear e análise de componentes principais. Com um modelo de fator linear, assume-se que o vetor residual tem uma matriz de covariância igual a uma diagonal, enquanto a análise de componentes principais pode ou não ser verdadeira. O vídeo passa a discutir a análise empírica de componentes principais, em que dados de amostra são usados para obter estimativas de médias e matrizes de covariância. O conceito de variabilidade também é introduzido, em que a primeira variável componente principal é definida como a dimensão na qual o eixo de coordenadas tem a variabilidade máxima. A segunda variável de componente principal é então a direção ortogonal à primeira com a variância máxima, e esse processo continua para definir todas as m variáveis de componente principal.

  • 01:10:00 Nesta seção, o palestrante explica como a análise de componentes principais pode ser usada para decompor a variabilidade de diferentes variáveis de componentes principais de uma matriz de covariância σ, que representa a variância total de um conjunto de dados multivariados. As entradas fora da diagonal da matriz são zero, indicando que as variáveis componentes principais não são correlacionadas e possuem seu próprio nível de variabilidade, conforme representado pelos autovalores. Como estudo de caso, o palestrante usa o exemplo dos rendimentos do Tesouro dos EUA entre 2000 e 2013, observando especificamente as mudanças nos rendimentos. O foco é um período de cinco anos entre 2001 e 2005, e a análise consiste na volatilidade diária dos rendimentos e níveis negativos ao longo desse período.

  • 01:15:00 Nesta seção, o apresentador discute a modelagem de fatores de mudanças de rendimento usando a análise de componentes principais. A matriz de correlação de mudanças de rendimento mostra correlações altas para prazos mais curtos e correlações diminuindo à medida que você se afasta da diagonal. O apresentador usa gráficos para representar visualmente as correlações e mostra que a primeira variável componente principal explica 85% da variabilidade total. Um scree plot confirma que os primeiros componentes principais explicam uma quantidade significativa de variabilidade. Por fim, o apresentador compara os desvios-padrão das mudanças de rendimento originais com os das variáveis de componentes principais.

  • 01:20:00 Nesta seção, foi apresentado um gráfico das cargas nas diferentes mudanças de rendimento para as primeiras variáveis de componentes principais, o que dá uma ideia sobre a interpretação das variáveis de componentes principais. A primeira variável de componente principal mede a variação média do rendimento em todo o intervalo e dá maior peso ao prazo de cinco anos, que captura uma medida da mudança de nível na curva de rendimento, enquanto a segunda variável de componente principal analisa a diferença entre o rendimento mudanças nos prazos longos versus os prazos curtos. Além disso, a terceira variável de componente principal fornece uma medida da curvatura da estrutura a termo e como ela está mudando ao longo do tempo. As variáveis do componente principal têm correlações nulas entre si, e as variáveis do componente principal cumulativas ao longo do tempo indicam como esses fatores subjacentes evoluíram ao longo do período.

  • 01:25:00 Nesta seção, o palestrante discute a adequação de um modelo de análise fatorial estatística aos dados e a comparação dos resultados ao longo de um período de cinco anos. O palestrante enfatiza a importância de especificar os modelos em um período específico e destaca que a adequação dos modelos é apenas um ponto de partida. Em última análise, é necessário modelar a dinâmica desses fatores e suas relações estruturais.
15. Factor Modeling
15. Factor Modeling
  • 2015.01.06
  • www.youtube.com
MIT 18.S096 Topics in Mathematics with Applications in Finance, Fall 2013View the complete course: http://ocw.mit.edu/18-S096F13Instructor: Peter KempthorneT...
Razão: