Estatísticas de dependência entre aspas (teoria da informação, correlação e outros métodos de seleção de características) - página 31

 
Avals: Não há necessidade de prever o tempo todo :) Somente em momentos discretos.

E mais freqüentemente o sistema deveria dizer: "vamos sentar na cerca, eu tenho uma crise do modelo do universo". Suponho que esta seja uma qualidade útil de qualquer sistema comercial inteligente, refletindo a realidade caótica do mercado: ela só permite um leve vislumbre do futuro em determinados momentos.

Candidato: Geralmente, a julgar pelo fato de que os postes continuam pendurados no ar, meu tempo neste fio já se foi ou ainda não chegou :). É provavelmente a hora de descansar a fonte :).

Provavelmente ainda não :).

E eu, honestamente, ainda não ia ativar o tema, mas depois que ele surgiu, presumi que haveria sobre este desenvolvimento. Mas eu não me arrependo, pois a discussão esclareceu algumas coisas.

Candidato: assumi desde o início que a metodologia pressente quaisquer dependências, tanto úteis quanto inúteis para a previsão. Com relação à volatilidade, há aqui provas definitivas que sustentam tal suposição.

A volatilidade é um jogador sério neste jogo de informação, mas eu acho que ainda não é o rei e deus.

 

Vou continuar o tema, mais para os estetas. Talvez esse seja o fim do tópico. Ou talvez outra se abra.

Vou postar os resultados de minhas experiências.

 

Um gráfico mostrando a quantidade de informações mútuas sobre defasagens de 1 a 250 para a barra zero (mais precisamente, os incrementos de preço p[0] - p[1]) para EURUSD D1.




A seguir, vamos tentar manter a volatilidade original da série (mantendo os modulos de incremento) enquanto misturamos os sinais dos incrementos. Nós obtemos.



Um gráfico semelhante e a soma das informações recíprocas é muito semelhante. Isso significa que a eliminação do sinal do gradiente não afetou a informação mútua. A fim de confirmar a insignificância do sinal, vamos tentar o seguinte. Vamos deixar a seqüência de sinais de incrementos como no formato original, mas misturemos os modulos de incrementos tendo quebrado a estrutura da volatilidade. Agora nós temos.




O gráfico tem um aspecto diferente. A soma diminuiu significativamente. Assim, tendo retirado a volatilidade, com a presença da seqüência original de sinais de incremento, temos muito menos informações sobre a barra zero.


Agora vamos misturar os sinais de incremento e a seqüência de módulos de incremento, ou seja, vamos nos livrar da volatilidade e da seqüência de sinais que acontecem na série original.




Obtemos aproximadamente o mesmo, mesmo que a soma seja maior. Assumimos que a série livre de volatilidade é quase a mesma que uma série completamente aleatória (que, no entanto, tem a lei de distribuição preservada).


A fim de não fazer múltiplas realizações para cada experiência, vamos realizar testes estatísticos da hipótese sobre a diferença entre os valores obtidos de informações mútuas para diferentes séries.

Teste Kolmogorov-Smirnov para informações mútuas da série original e das séries com volatilidade preservada. p > 0,1. A hipótese de diferença é rejeitada.

Para séries originais e séries com sinal retido de incrementos: p < 0,01. A hipótese de uma diferença é confirmada.

Teste para a série com o sinal retido e a série aleatória. p < 0,1. Um resultado ambíguo, mas a soma de informações mútuas para as séries aleatórias é ainda maior, portanto estou inclinado a aceitar a hipótese de uma diferença, ou pelo menos de nenhuma superioridade sobre as séries aleatórias.

Conclusão: esta metodologia, trabalhando com aumentos de preços de fechamento, permite detectar dependências de volatilidade de preços, enquanto as dependências de sinais de incrementos não são detectáveis, se é que de alguma forma são de alguma forma detectáveis. É impossível prever a direção do movimento de preços com esta metodologia.

 

Estive fora do assunto durante o último mês: tenho estado muito ocupado com outras coisas, por isso não tive tempo para isso.

Em princípio, concordo com o veredicto. Mas apenas sobre os dias. Eu já suspeitava e dizia antes (e não só a mim) que há muito mais caos em dias do que em prazos mais curtos.

Também deve ser levado em conta que as barras com informações excessivas não foram rastreadas. Suspeito que isso afeta muito o resultado.

Em resumo, a seleção dos dados que possivelmente serão fornecidos para a entrada da rede neural deve ser abordada muito mais seriamente. Então, para se beneficiar da rede neural, é preciso alimentá-la com iguarias de topo extremamente livres de sujeira. E neste momento ainda não é uma iguaria, mas um esturjão estrelado sem cuidado.

 
Mathemat:

Estive fora do assunto durante o último mês: tenho estado muito ocupado com outras coisas, por isso não tive tempo para isso.

Concordo, em princípio, com o veredicto. Mas apenas sobre os dias. Eu já suspeitava e dizia antes (e não só a mim) que há muito mais caos em dias do que em prazos mais curtos.

Também deve ser levado em conta que as barras com informações excessivas não foram rastreadas. Suspeito que isso afeta muito o resultado.

Em resumo, a seleção dos dados que possivelmente serão fornecidos para a entrada da rede neural deve ser abordada muito mais seriamente. Assim, para se beneficiar da rede neural, é preciso alimentá-la com iguarias de topo extremamente livres de sujeira. E neste momento ainda não é uma iguaria, mas sim um esturjão estrelado sem cuidado.

Alexei, antes de mais nada, estou feliz em vê-lo no fio da meada. Concordo com sua opinião. Eu também ouvi e pensei sobre o grande volume de caos nos diários. Minha opinião é a seguinte: em TFs grandes a função da série temporal não é tão suave quanto em TFs de 1 minuto e 5 minutos, e menos ainda em carrapatos. Se alguém aprender a prever várias barras à frente em pequenos TFs, haverá poder. É claro que também posso calcular as informações mútuas por minutos, será ainda mais interessante. Posso fazer isso também para carrapatos, vou tirar do site da Gain Capital. Mas o problema do uso de informações do conjunto de barras não está resolvido, eu estou preso a isso. Desculpe.

Concordo plenamente que o "estorninho" não foi pego. E o problema das informações redundantes é importante a este respeito. Se tomarmos informações sobre barras específicas, estamos, fundamentalmente, levantando a questão da importância de cada atraso tomado.

No geral, mas nos vemos no ar novamente.

 
alexeymosc: É claro que também posso calcular informações recíprocas por minutos, seria até interessante. Posso fazer isso também para carrapatos, vou pegá-los do site da Gain Capital.

Por minutos, muito menos carrapatos, é provavelmente um desperdício muito grande em termos de tempo e uso de recursos de PC. Estou contando em pegar os relógios e contá-los. Veremos.

O problema mais grave aqui não está na superfície, mas no interior: a história passada não é uma constante para a CD. As barras aparecem e desaparecem o tempo todo. E as mudanças locais da história passada podem afetar seriamente o resultado (ou melhor, a Matriz). Sinto-me extremamente desconfortável com isto. Estou procurando uma maneira de resolver o problema da permanência da história e, ao mesmo tempo, reduzir o número de cálculos em uma ordem de grandeza.

 
alexeymosc:

Alexei, antes de mais nada, estou feliz em vê-lo no fio da meada. Concordo com sua opinião. Eu também ouvi e pensei sobre a grande quantidade de caos nos dias de hoje. Minha opinião é a seguinte: em grandes TFs a função da série cronológica não é tão suave quanto em minutos e cinco minutos, e menos ainda em carrapatos. Se alguém aprender a prever várias barras à frente em pequenos TFs, haverá poder. É claro que também posso calcular as informações mútuas por minutos, será ainda mais interessante. Posso fazer isso também para carrapatos, vou tirar do site da Gain Capital. Mas o problema do uso de informações do conjunto de barras não está resolvido, eu estou preso a isso. Desculpe.

Concordo plenamente que o "estorninho" não foi pego. E o problema das informações redundantes é importante a este respeito. Se tomarmos informações sobre barras específicas, estamos, fundamentalmente, levantando a questão da importância de cada atraso tomado.

No geral, mas nos vemos no ar novamente.

Talvez em TFs grandes a função da série temporal não seja tão suave quanto em minutos e cinco minutos, e ainda mais em carrapatos, mas é mais previsível. Em TFs menores, especialmente em minutos, a função da série temporal revela um padrão, como eu entendo, dentro de algumas centenas ou até milhares de barras, enquanto dentro de dez (-s) barras a proporção de componentes aleatórios de um possível padrão geral é muito alta.
 
yosuf:
Talvez em grandes períodos de tempo, a função das séries temporais não seja tão suave quanto nas séries de 1 minuto e 5 minutos, e menos ainda nos carrapatos, mas é mais previsível. Em períodos de tempo menores, especialmente nos de 1 minuto, a função das séries temporais mostra regularidade dentro de várias centenas ou até milhares de barras, enquanto dentro de dezenas (-s) de barras a proporção de componentes aleatórios de um possível padrão geral é muito alta.

Eu concordo, Yusuf. Há também essa opinião. Por isso, a propósito, levei as barras diárias. Mas, curiosamente, a soma das informações mútuas para o mesmo número de defasagens é maior para barras de hora em hora do que para barras diurnas. Mesmo que seja em sua maioria volatilidade, mas um fato é um fato. Portanto, talvez prazos menores sejam mais adequados para um modelo de previsão particular.

 
Mathemat:

Por minutos, muito menos carrapatos, é provavelmente um desperdício muito grande em termos de tempo e uso de recursos de PC. Estou contando em pegar os relógios e contá-los. Veremos.

O problema mais grave aqui não está na superfície, mas no interior: a história passada não é uma constante para a CD. As barras aparecem e desaparecem o tempo todo. E as mudanças locais da história passada podem afetar seriamente o resultado (ou melhor, a Matriz). Sinto-me extremamente desconfortável com isto. Estou procurando uma maneira de resolver o problema da constância histórica e, ao mesmo tempo, reduzir o número de cálculos em uma ordem de grandeza.

Este é um ponto muito bom. Embora eu mesmo não tenha cavado o problema das barras voláteis na história, mas a questão é clara para mim, Alexey. Acho que devemos medir em algum sinal derivado da série temporal e não na própria série temporal. Talvez faça sentido tomar o preço médio ponderado dentro do período de tempo, os picos serão suavizados. A propósito, eu o fiz uma vez: tomei o preço médio ponderado intradiário calculado por fechamento horário (na verdade, é MA com um período de 24, mas para o cálculo tomamos os valores desta onda, espaçados em 24 passos). E eu calculei as informações mútuas. Eu fiquei surpreso. A Lag #1 mostrou o máximo de informações, os outros atrasos mostraram 10 vezes ou mais informações menos. Uma diferença acentuada em relação à série de preços diária original
 
Você está ciente do impacto do agrupamento da volatilidade nos períodos de tempo mais baixos e ainda assim tira quaisquer conclusões que supostamente os períodos de tempo mais altos são mais ruidosos. A única base para isso é sua crença. Se você realmente quiser comparar diferentes escalas de tempo, então compare não diretamente, mas seus resíduos dos efeitos da volatilidade, caso contrário tudo se assemelha a uma crença própria.
Razão: