Fenômenos de mercado - página 23

 

Aproximando-se gradualmente dos modelos, e do fenômeno. Portanto, modelos estocásticos com uma estrutura aleatória pressupõem, naturalmente, os próprios modelos e uma descrição da transição entre eles (ou seja, alguma lógica probabilística de interceptação de um processo por outro, que estes modelos geram). Podemos dizer que a BP é descrita por 100 equações diferenciais de Ito, e então há uma questão de identificação de modelos, - quais funções, quais vieses, quais coeficientes de difusão para cada um, qual é o vetor de probabilidade inicial dos estados dos sistemas, em geral - não é uma tarefa trivial.

Assim, na verdade, inventei uma transformação que decompõe qualquer série cronológica inicial em dois subprocessos. Não vi nada semelhante antes, mas talvez seja um dos casos particulares de representação canônica de funções aleatórias. Quem sabe, não sou um matemático profissional. A essência é "peneirar" através de uma grade. Mas não importa, ainda não vou expor a matemática, tenho que lidar com as idéias e o conceito. O importante é que, após a transformação, temos apenas dois processos, estes processos são lineares, mas têm uma estrutura mais complicada.

Processo aleatório. O processo é compatível em suas características com os incrementos de M15

Após a transformação, obtemos:

Para um processo aleatório, os coeficientes b(alfa) e b(ômega) nos modelos, serão o mesmo modulo, a diferença de comprimentos respectivamente mostrará a predominância de uma ou outra dinâmica, e para um processo aleatório a estrutura interna dos processos separados estará próxima da linha. Ainda existem algumas questões teóricas e o desenvolvimento de melhores algoritmos, mas isso é uma história à parte.

A propósito, outra afirmação indireta (no sentido ainda não estritamente comprovada) é que o processo citado não é aleatório, uma vez que as características de decomposição são diferentes das de BPs aleatórias (bem ... ainda não estritamente todas lá).

Portanto, permanece a questão das probabilidades de transição entre os estados (processos). Se essas transições puderem ser consideradas "Markovianas", então pela fórmula de Kolmogorov-Chempen será possível obter probabilidades de estados do sistema em um determinado horizonte no futuro.

Sobre o fenômeno mais cool (este não é apenas um ramo de fenômenos prontos, como se a pesquisa fosse permitida ou não?). Portanto, aqui tenho certeza de que existem"padrões estocásticos" (TA não tem nada a ver com isso), uma certeza muito forte, espero que eles sejam confirmados. É possível que eu esteja errado e então, eu já sinto, é assustador imaginar, paukas depois de tudo, uma fatura pelo lucro perdido será submetida para pagamento.

 
IgorM:

Eu não entendo uma coisa, por que você precisa analisar Oreps?

Bem, as aberturas e fechamentos são artificialmente abaixados ou levantados no fechamento da barra, às vezes parece que no fechamento da barra "há um jogo para redesenhar a cor da vela".

Minha teoria é que tudo o que recebemos dos DTs, tudo OHLC é artificial. Mas, seriamente, precisamos medir o processo em intervalos de tempo iguais (de um ponto de vista de engenharia, o DSP é mais familiar e correto). As propriedades OHLC não parecem ser muito diferentes para mim.
 
Farnsworth:
Mas, falando sério, você precisa medir o processo em intervalos de tempo iguais (o DSP é mais familiar e correto do ponto de vista da engenharia).
NN, você está à procura de algum tipo de impulso
 
IgorM:
NN, você está à procura de algum tipo de impulso
Não, o momentum (e todos os seus derivados) não tem nada a ver com isso.
 
Farnsworth:
Minha teoria é que tudo o que recebemos de DC, tudo OHLC, é artificial. Mas, falando sério, precisamos medir o processo em intervalos de tempo iguais (pois do ponto de vista da engenharia, o DSP é mais familiar e correto). As propriedades da OHLC não parecem diferir muito para mim.
Bem, por interesse, você poderia tentar assistir alfa por alfa e ômega por alfa por baixo.
 
marketeer:
Bem, por interesse, você poderia tentar assistir alfa por alta e ômega por baixa.

Não é uma pergunta, somente no próximo domingo, quando chego ao laboratório. Não creio que mudarão fundamentalmente, mesmo todas as características de conversão permanecerão aproximadamente as mesmas.

a todos

Mais uma vez eu gostaria de prestar atenção, não sei sobre os colegas, mas quando tomado dentro do RMS do incremento produziu uma tendência - eu fiquei muito surpreso. Confesso que estava esperando algo como uma tendência errante. É realmente uma tendência. Mostrei por exemplo o coeficiente de determinação, mas é um indicador muito ruim, pois caracteriza a qualidade do ajuste do modelo à série original, ou seja, uma regressão linear pode se ajustar perfeitamente a qualquer série, mesmo que seja aleatória e mostrará que, por exemplo, 95% das séries temporais em 10 anos de história são explicadas por a+b*x dentro do erro médio. Uma vez usadas as características fractais, em particular a estimativa do índice Hurst de várias maneiras (análise R/S, desvios de variância ...). Leva muito tempo para calcular, mas mostra com confiança a tendência para uma determinada LAMBDA, ao contrário das caminhadas aleatórias.

Há também sutilezas interessantes, mas isso é muito mais tarde.

 
Farnsworth:
Esperamos chegar a uma matemática "fractal" mais séria no estudo da "cauda gorda". Levará mais algum tempo, mas por enquanto estou lançando um estudo quase científico que me deu algumas reflexões.

Premissas sobre o modelo.

...

Taki, isto é muito mais interessante do que era antes.

Aqui está a questão, existe alguma correlação significativa entre as contagens, em ambos os processos (tendência linear, não é realmente isso). O pensamento é simples, se tal dependência aparece, após todas as transformações, então os processos (ambos) têm propriedades que os distinguem de uma caminhada aleatória.

A propósito, para dividir em processos, também podemos utilizá-lo. Isto é, dividir não pelo corte RMS, mas por... não sei, por autocorrelação, por exemplo.

 
HideYourRichess:

Taki, isto é muito mais interessante do que era antes.

A questão é se existe alguma dependência significativa entre as amostras em ambos os processos (tendência linear, não realmente). O pensamento é simples, se tal dependência aparece, após todas as transformações, então os processos (ambos) têm propriedades que os distinguem de uma caminhada aleatória.

A propósito, para dividir em processos, também podemos utilizá-lo. Isto é, dividir não pelo corte RMS, mas por... não sei, por autocorrelação, por exemplo.


De onde vêm os padrões/dependências? Você pega um tempo e coloca alguns dos incrementos em uma pilha e outros em outra, dependendo do valor. E alguns pontos ou uma mudança de ponto de referência podem alterar a composição desses "processos". De onde vem a lógica comercial com tal quebra? Referiremos 20 pontos em m15 a ômega, mas se tivéssemos 21 pontos seria diferente - é alfa :) De onde veio essa matriz de divisão de retorno, em primeiro lugar? Como poderia ter sido diferente do que uma caminhada aleatória, já que a matriz mostra que um "processo" terá mais retornados negativos e o outro mais positivos? É claro que um processo terá mais retornados negativos e o outro mais retornados positivos?
 
HideYourRichess:

Taki, isto é muito mais interessante do que era antes.

A questão é se existe alguma dependência significativa entre as contagens em ambos os processos. O pensamento é simples, se tal dependência aparece depois de todas as transformações, então os processos realmente têm propriedades que os distinguem da caminhada aleatória.

A correlação para estes processos ainda não foi procurada. Além disso, não olhei para ele de propósito. A principal razão é que eu "escolhi" da série apenas aquelas contagens que se enquadravam na classificação. Os buracos que apareceram foram simplesmente ignorados. Isto é, de acordo com a concepção original, existe uma tendência determinista, com uma estrutura mais complexa do que apenas uma linha, mas é determinista. E este processo de "tendência" é interrompido (exatamente interrompido ou destruído) por outro "processo assassino" mais complexo (caudas, orelhas, o que quer que seja que se destaque). É importante notar que não é a tendência que se mistura com o ruído, mas sim dois processos muito complexos competindo, um criativo, o outro destrutivo.

Utilização? - Quase fácil :o) Você pode prever o "processo de transporte" com precisão suficiente (dentro de limites razoáveis), e então, por exemplo, usando o método Monte Carlo, estimar a destruição futura, assim como estimar os níveis mais prováveis de acumulação de preços após o "acidente".

E eu acho que neste processo infinito de criação e destruição de tendências devem existir estes mesmos "padrões estocásticos". Vindo a eles de ângulos diferentes, e aqui está outra abordagem. Mas a filosofia muda um pouco, acontece que existe uma tendência, ela é predeterminada pela própria natureza da empresa, da sociedade, do país, o que quer que seja. É um só, ou seja, não há touros e ursos. Mas existem condições ambientais nas quais esta tendência não pode existir em condições ideais, incluindo a própria sociedade, que pode destruí-la (a tendência). Mas isto é tudo letra, não preste atenção.

A propósito, a fim de dividir um processo, também é possível utilizá-lo. Isto é, dividir não por corte RMS, mas por... não sei, por autocorrelação, por exemplo.

Em princípio, isto é correto, não é a única maneira de filtrar.

PS IMPORTANTE: Eu não poderia filtrar este processo em termos de DSP, eu não poderia filtrá-lo de jeito nenhum!!! Mas este método primitivo deu resultados. Acho que isto deve funcionar bem aqui, qualquer coisa que envolva o prefixo "multi".

No próximo domingo vou tentar avaliar as diferentes características destes processos particulares.

 
Avals:

De onde vêm os padrões/dependências? Eles tomaram algum tempo e colocaram alguns dos incrementos em uma pilha e outros em outra, dependendo do valor. E alguns pontos ou uma mudança de ponto de referência podem alterar a composição desses "processos". De onde vem a lógica comercial com tal quebra? Referiremos 20 pontos em m15 a ômega, mas se tivéssemos 21 pontos seria diferente - é alfa :) De onde veio essa matriz de divisão de retorno, em primeiro lugar? Como poderia ter sido diferente do que uma caminhada aleatória, já que a matriz mostra que um "processo" terá mais retornados negativos e o outro mais positivos? É claro que um processo terá mais retornados negativos e o outro mais retornados positivos?

não é tão simples assim. Recordando o posto de Alexei:

Outro fenômeno é a memória a longo prazo.

A maioria de nós (daqueles que o fazem, é claro) estamos acostumados a medir a memória de mercado por correlação Pearson - mais precisamente, a autocorrelação. É bem conhecido que tal correlação é bastante curta e significativa, com defasagens de até 5-10 barras, no máximo. Assim, geralmente se conclui que se o mercado tem uma memória, ela tem uma vida muito curta.

Entretanto, a correlação Pearson só é capaz de medir as relações lineares entre barras - e praticamente ignora as relações não lineares entre elas. A teoria da correlação de processos aleatórios não é chamada de linear por nada.

No entanto, existem critérios estatísticos que nos permitem estabelecer o fato de uma relação arbitrária entre variáveis aleatórias. Por exemplo, o critério do qui-quadrado - ou o critério de informação mútua. Eu realmente não me preocupei com o segundo, mas eu me preocupei com o primeiro. Não vou explicar como utilizá-lo: existem muitos manuais na Internet, que explicam como utilizá-lo.

A questão principal foi esta: existe uma relação estatística entre barras que estão longe (por exemplo, se há mil barras entre elas)? Não havia dúvidas sobre como utilizá-lo no comércio.

A resposta é sim, ela existe, e é muito significativa.

Por exemplo, se pegarmos o histórico EURUSD de 1999 em H1 e verificarmos o qui-quadrado para devoluções de pares, descobrimos que na faixa de "distâncias" entre barras entre 10 e 6000, em cerca de 90% dos casos a barra atual depende das barras do passado. 90%! A distâncias entre barras de mais de 6000, tais dependências ocorrem com menos freqüência, mas ainda assim ocorrem!

Francamente, fiquei atônito com esta "descoberta", pois mostra diretamente que o euro tem uma memória de muito longo prazo. No EURUSD H1, 6.000 barras é cerca de um ano. Isto significa que entre as barras horárias de um ano atrás, ainda existem barras que o atual zero "lembra".

Em H4 é encontrada uma dependência significativa até cerca de 1000-1500 barras. Ou seja, a duração da "memória de mercado" ainda é a mesma - cerca de um ano.

Recorde Peters que diz que a memória do mercado é de cerca de 4 anos. Contradição, porém... Ainda não sei como resolvê-lo.

Não tendo me acalmado, decidi verificar se meu qui-quadrado mostraria tais dependências se eu alimentasse os retornos sintéticos de entrada gerados independentemente. Escolhi duas distribuições possíveis dos retornos sintéticos - normal e Laplace - e a administrei. Sim, mostra, mas dentro do nível de significância do critério (eu tinha 0,01)! Em outras palavras, o sintético mostrou cerca de 1% de barras dependentes no passado - apenas no nível de probabilidade de erro de critério.

Quais são as conclusões?

1. As citações em euros definitivamente não são um processo Markov. Em um processo Markov, o valor atual depende apenas do valor anterior. Em nosso caso, temos numerosos bares num passado muito distante, do qual depende a barra atual.

2. a chamada "fundação" certamente desempenha um certo papel - digamos, como desculpa para mover as citações. Mas certamente não é o único. Temos que olhar para a técnica!

3. este resultado ainda é puramente teórico e não tem importância prática. No entanto, mostra claramente que nem tudo está perdido para aqueles que procuram algo.

Avals, não se apresse a tirar conclusões...

PS: E o que Alexey escreveu - eu o confirmo completamente!!!

Razão: