Discussão do artigo "Aplicação do método de coordenadas de Eigen para a análise estrutural de distribuições estatísticas não extensivas" - página 2
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
O que quero dizer com tudo isso. Suponhamos que tenhamos um determinado modelo e que, com base nele, tenhamos obtido uma função teórica. E pode ser que, por nossa ignorância, não tenhamos levado em conta algum fator muito insignificante, mas sistemático. Nesse caso, o método das coordenadas próprias, devido à sua extraordinária sensibilidade, nos dará um tapa no pulso, dizendo que os dados reais não correspondem ao modelo. Mas isso não é verdade! - O modelo está correto, mas não leva em conta apenas um fator e, do ponto de vista prático, essa deficiência pode acabar sendo insignificante (como no mesmo exemplo de Hilhorst-Schell, em que é difícil notar a diferença mesmo a olho nu). Portanto, eu leria "apenas do ponto de vista fundamental" como "bastante do ponto de vista fundamental", no sentido de que o valor da precisão máxima da correspondência pode não ser tão essencial do ponto de vista aplicado (para resolver um problema prático), mas do ponto de vista fundamental (de compreensão completa de todos os processos que estão ocorrendo).
Do ponto de vista aplicado, o valor da precisão máxima de ajuste não é tão essencial se você conhecer as limitações do modelo com antecedência. Por exemplo, há dados experimentais, há uma teoria que os descreve bem em alguma área (qualquer modelo tem limitações). Se de repente acontecer de o método dar um chute na tampa, ele o fará fora do modelo (por exemplo, nosso modelo não funciona em temperaturas altas/baixas), veremos isso. Por outro lado, geralmente temos informações sobre as propriedades do modelo, por exemplo, que ele é derivado com algumas suposições, e nessas temperaturas aparecem outros efeitos que não são considerados no modelo. Não há nada de errado nisso, o modelo tem uma área de aplicabilidade.
O fundamentalismo é sempre mais forte, porque sua área de aplicabilidade é mais ampla. Para ter uma ampla área de aplicabilidade, você precisa ter propriedades especiais.
Além disso, o método só nos dá um veredicto de que o modelo não se ajusta aos dados experimentais, mas não diz nada sobre os motivos da discrepância (como no meu exemplo - não podemos determinar se o modelo está "geralmente" correto com pequenas falhas ou se deve ser completamente revisado), e isso é uma falha.
Há uma mágica mais legal para esses casos - são considerações de simetria.
Parece-me que a falha arquitetônica da mecânica estatística dificilmente pode ser corrigida com a ajuda da distribuição indicativa.
Quantum:
Parece-me que, por meio da distribuição indicativa, é improvável que seja possível corrigir a falha arquitetônica da mecânica estatística.
E não há falha alguma, tente substituir mu=0, nu=1, a=gamma em seus cálculos (parágrafos 2.3-2.4 do artigo). Aqui está um trecho do artigo
Nesse caso, os cálculos são quase triviais - após a substituição de 3 coordenadas, restam apenas 2, mas você pode notar que X1 e X2 são linearmente dependentes, ou seja, na verdade, temos que eliminar mais uma coordenada. Em seguida, substitua os dados reais, por exemplo, com EURUSD. Você ficará agradavelmente surpreso com os resultados (em termos de linearidade do gráfico). O mais interessante é que, pelo que me lembro, há desvios da linearidade apenas na área de "altas temperaturas" (no sentido de na área de retornos de grandes módulos), e não na direção que você esperaria - na verdade, se você traçar tudo com cuidado, verá que a "cauda grossa" da distribuição se afina acentuadamente no final (é difícil estimar, não há pontos suficientes, mas algo como exp(-x^3) ou exp(-x^4). Isso leva à questão de a) se é possível criar um único modelo que funcione em todas as regiões (provavelmente não, já que os efeitos não lineares no "modo de saturação" desempenham um papel predominante) e b) essa cauda corresponde ao q-Gaussiano, como um acordeão a uma cabra, por exemplo.
.
Você pode fazer isso de outra forma - alimentar o arquivo csv com a distribuição real dos módulos de desvio no script do parágrafo 2.4 e ver o que acontece. Como o problema é altamente sobredeterminado (um dos coeficientes C3 é muito próximo de zero e os outros dois C1 e C2 são muito dependentes linearmente), não posso nem mesmo prever o resultado (o MNC pode transbordar). Se você for preguiçoso, espere até a noite, eu mesmo posso fazer isso. Quando virmos as imagens, ficará claro quem está certo e sobre o que falar em seguida).
A propósito, não afirmo que a exponencial seja uma panaceia, pelo contrário, em termos não extensivos, eu o apoio e sugiro calcular qual distribuição maximiza a entropia Q em [0;+inf) (você conhece cálculo de variações? Não conheço muito bem, mas posso fazer isso em princípio, não é muito complicado). Há considerações teóricas (escrevi acima sobre informações), embora não muito formalizadas, além de alguma intuição, se você quiser.
Particularmente agradável é o fato de que
E não há junção, tente substituir em seus cálculos (parágrafos 2.3-2.4 do artigo) mu=0, nu=1, a=gamma. Aqui está um extrato do artigo
Nesse caso, os cálculos são quase triviais - após a substituição de 3 coordenadas, restam apenas 2, mas você pode notar que X1 e X2 são linearmente dependentes, ou seja, na verdade, temos que eliminar mais uma coordenada. Em seguida, substitua os dados reais, por exemplo, com EURUSD. Você ficará agradavelmente surpreso com os resultados (em termos de linearidade do gráfico). O mais interessante é que, pelo que me lembro, há desvios da linearidade apenas na área de "altas temperaturas" (no sentido de na área de retornos de grandes módulos), e não na direção que você esperaria - na verdade, se você traçar tudo com cuidado, verá que a "cauda grossa" da distribuição se afina acentuadamente no final (é difícil estimar, não há pontos suficientes, mas algo como exp(-x^3) ou exp(-x^4). Isso leva à questão de a) se é possível criar um único modelo que funcione em todas as regiões (provavelmente não, já que os efeitos não lineares no "modo de saturação" desempenham um papel predominante) e b) essa cauda corresponde ao q-Gaussiano, como um acordeão a uma cabra, por exemplo.
.
Você pode fazer isso de outra forma - alimentar o arquivo csv com a distribuição real dos módulos de desvio no script do parágrafo 2.4 e ver o que acontece. Como o problema é altamente sobredeterminado (um dos coeficientes C3 é muito próximo de zero e os outros dois C1 e C2 são muito dependentes linearmente), não posso nem mesmo prever o resultado (o MNC pode transbordar). Se você for preguiçoso, espere até a noite, eu mesmo posso fazer isso. Quando virmos as imagens, ficará claro quem está certo e sobre o que falar em seguida).
A propósito, não afirmo que a exponencial seja uma panaceia, pelo contrário, em termos não extensivos, eu o apoio e sugiro calcular qual distribuição maximiza a entropia Q em [0;+inf) (você conhece cálculo de variações? Não conheço muito bem, mas posso fazer isso em princípio, não é muito complicado). Há considerações teóricas (escrevi acima sobre as informações), embora não muito formalizadas, além de alguma intuição, se você quiser.
Trabalhar com módulos é uma ideia muito boa, seria interessante ver o que acontece.
P1(x) é mais fraca do que P2(x) - a última tem uma dinâmica mais rica de acordo com a equação dif. Além disso, P2(x) contém uma Gaussiana, o que a torna universal (você pode corrigir todos os problemas em que ela aparece).
Acho que devemos nos aprofundar em P(U) - ela é quase gaussiana, mas com uma transformação não linear complicada do argumento por meio de erf-1(x) - é assim que as caudas foram cortadas em Scher.
ao diferenciar e integrar P(U), há construções com transformação de argumento na forma erf(a*erf-1(x)) - o que isso não está muito claro.
Ou seja, a ideia é recuperar as soluções exatas conhecidas (Scher tem um segundo exemplo no slide 25) comparando as equações com a forma geral da equação diferencial, cujas soluções assumirão a forma de funções conhecidas em casos específicos (por analogia com a função hipergeométrica).
Ah, sim, tive que me levantar e procurar na Internet, e descobri que a exponencial q já havia sido calculada por pessoas gentis
Pessoas não menos gentis mostraram que há uma bifurcação global (eq. 32), na qual, após uma "escolha específica" h(x)=tanh(x) e lamda=1, obtemos g->q.
Gostaria de saber se há outras opções de "escolha específica" com a opção "gaussiana". Acho que deve haver - o nascimento de uma nova qualidade não pode ser baseado em "não desempenhar nenhum papel especial" - a fundamentalidade é simplesmente necessária aqui.
UPD: É possível que "não desempenhe nenhum papel especial" seja uma afirmação incorreta feita com base em vários casos especiais.
Do ponto de vista da aplicação, o valor de maximizar a precisão do ajuste não é tão significativo se você souber antecipadamente as limitações do modelo.
O princípio de "não se pode estragar o mingau com óleo" é muito questionável na modelagem prática.
Se você se concentrar apenas em séries temporais econômicas, juntamente com a necessidade de resolver outros problemas, sempre terá de resolver o problema de duas faces da "redundância/insuficiência" do modelo. Nesse caso, se os modelos forem iguais, será escolhido o mais simples. Para resolver esse problema em estatística, há um conjunto de testes que permitem tentar resolver esse problema de alguma forma.
Todo o mecanismo de modelagem deve ser equilibrado. É claro que é interessante ter avanços em alguns pontos, mas é praticamente interessante puxar outros elementos dos modelos até o nível desse avanço.
No momento, ainda é um problema ter dobras (pontos de ruptura) no cotidiano que não podem ser levados em conta na modelagem. Até que esse problema seja resolvido, qualquer refinamento do modelo não terá sentido.
Sim, talvez seja melhor examinar primeiro os dados experimentais.
Vamos considerar um exemplo clássico (Fig. 4 do artigo) de explicação da distribuição do SP500 usando q-Gaussian (função P2(x)).
Os dados diários sobre os preços de fechamento do SP500 foram obtidos no link: http://wikiposit.org/w?filter=Finance/Futures/Indices/S__and__P%20500/.
Para verificar o arquivo SP500-data.csv, copie-o para a pasta \Files\ e, em seguida, execute CalcDistr_SP500.mq5 (cálculo de distribuição) e q-gaussian-SP500.mq5 ( análise de coordenadas próprias).
Resultados do cálculo:
Estimativas do parâmetro q obtidas pelo método de coordenadas próprias (q=1+1/theta): q~1,55
No exemplo (Figura 4 do artigo), q~1,4.
Conclusões: em geral, esses dados se projetam muito bem para o q-gaussiano, os dados foram tomados como estão, mas a média ainda está presente, uma vez que a ferramenta do índice SP500 + gráficos diários.
X1 e X2 são sensíveis por natureza. Em X3 e X4, as caudas são ligeiramente distorcidas, mas não tanto que q-gaussian não seja a função correta - é necessário encontrar um exemplo com um problema mais pronunciado.
Você pode melhorar X1 e X2 substituindo-os por JX1 e JX2, e eles devem se endireitar. As caudas em X3 e X4 podem ser corrigidas expandindo o conjunto de coordenadas próprias generalizando a dependência quadrática, ou seja, abandonando a simetria em torno de x0 (+novos parâmetros). Podemos analisar o caso cúbico de (1+a(x-x0)^3)^theta e suas extensões (+novos parâmetros).
Requer o estudo do instrumento, do intervalo de tempo e da dependência do período de tempo.
No momento, ainda há um problema de pontos de interrupção no kotir, que não pode ser levado em conta na modelagem. Até que esse problema seja resolvido, qualquer refinamento do modelo não terá sentido.
Com relação aos pontos de interrupção (se eu os entendi corretamente).
Vamos considerar a distribuição de retornos logarítmicos para #AA, M5 (2011.12.01 21:15:00 -2012.06.29 18:10:00).
O cálculo foi feito usando o script CalcDistr.mq5, 10000 dados para o símbolo #AA, M5.
A distribuição de retornos logarítmicos nesse caso (escala M5) tem uma estrutura complexa:
Se considerarmos a distribuição de retornos logarítmicos~ probabilidade de movimento em alguma direção, então há claramente uma soma de distribuições aqui - a estrutura das distribuições em pequenas escalas indica não estacionariedade.
A dinâmica atual é determinada pela distribuição local e, nos pontos de ruptura, ela é reorganizada:
Ou seja, a distribuição é assimétrica em sua natureza (|x| não passará), consiste em duas partes/distribuições (positiva e negativa), a dinâmica local é determinada pelo maior volume no béquer.
Material interessante, obrigado. Não quero atrapalhar a delicadeza matemática reinante aqui, mas não posso deixar de fazer duas perguntas simples:
1. A questão do valor prático dessas distribuições. O que devemos obter como resultado? A descrição por si só é boa, mas (peço desculpas, é claro) cheira a botânica.
2. É razoável tentar descrever processos de natureza completamente diferentes que ocorrem em diferentes "níveis" do mercado por meio de uma única distribuição? O problema das "torções" já foi mencionado aqui, mas isso é apenas uma parte dos problemas existentes. Além disso, em diferentes intervalos de tempo históricos, a própria composição dos processos muda significativamente. Não entendo como você quer descrever isso com uma única distribuição.