uma estratégia comercial baseada na Teoria da Onda de Elliott - página 227

 
Bem, talvez entre nós donas de casa você possa me dizer o que é ? <br / translate="no"> Não tem que ser sobre o processo Markov, você pode apenas falar sobre as correntes Markov.
Você pode até mesmo falar de correntes.


É bastante longa, e não sou bom em contá-la bem. Sobre correntes, correntes e processos Markov, que estas correntes descrevem, li no livro "Partes Probabilísticas da Matemática" editado por Maximov, "Curso de Teoria da Probabilidade" de Gnedenko. Não posso dizer de mim mesmo que me tornei um guru neste campo. Ao contrário, lembro-me de um cão que entende tudo, mas não pode dizer nada. :о)

Eu também não gosto muito da explicação de uma dona de casa sobre "o que é". Por exemplo, tomemos uma definição da Wikipedia (bastante para donas de casa :o):


Uma cadeia de Markov (CM) é uma seqüência de eventos aleatórios com um número infinito de resultados finitos ou contáveis, caracterizada pela propriedade que, em um presente fixo, o futuro é independente do passado. O seu nome vem de A. A. Markov (Sr.).


Parece estar correto, no entanto, a formulação mais precisa é um pouco diferente:


Uma seqüência de ensaios forma uma CM se a probabilidade condicional em ensaios s+1 (s=1,2,3,,,,) de um evento A(i)[s+1] i=1,2,...k depende apenas de qual evento ocorreu no ensaio s-ésimo e não muda das informações aditivas sobre quais eventos ocorreram em ensaios anteriores.


Aparentemente, por este motivo, os processos que podem ser descritos por tais cadeias são chamados de processos com memória curta. Outra definição, baseada na noção de estado do sistema, também é introduzida.

Yuri, tenha piedade de mim. Não quero de forma alguma reescrever definições e conclusões. CM, esta não é minha invenção e ainda não alcancei o nível apropriado de incompetência, que é o de recontar tudo isso em minhas próprias palavras. Você pode então não reconhecer as correntes de Markov :o).

Quando você ler em fontes competentes (ao contrário da minha narrativa), então talvez minhas "práticas" sejam úteis:

(1) Eu escolhi um canal como o estado do sistema em vez de valores de preços específicos ou a diferença entre os preços
(2) Tomei as probabilidades de algumas características de canal para fazer uma matriz de probabilidade de transição.
(3) Eu tomei uma mudança de canal como um passo na matriz
(4) Eu "intuitivamente escolhi" o processo de nascimento e morte como um processo; não podemos usar o processo de fila de espera para nossos propósitos, podemos?

E eu já demonstrei os resultados de seu uso. :о)
 
Vamos considerar a classe das séries temporais estacionárias. Nosso problema se reduz à escolha de um modelo adequado para descrever o comportamento dos resíduos "aleatórios" X[j] da série temporal estudada Y[j], obtidos após a eliminação de seu componente não aleatório (se houver) da série temporal original. Como descrevemos aqui o comportamento de resíduos aleatórios, denota-se a série temporal simulada por X[j], e assumimos que para todos j sua expectativa matemática é zero. Caso contrário, precisamos centralizar a série original. A centralização e a residualização podem ser feitas para a série temporal característica do mercado Forex (contendo apenas as tendências estocásticas) através da construção da primeira série de diferenças
X[j]=Y[j]-Y[j-k], onde k pode ser de 1 a n, dependendo do propósito do experimento.


Modelo de auto-regressão da 1ª ordem AR(1) (processo Markov).

Este modelo é uma variante simples do processo autoregressivo de
X[j]=SUM{a[k]*X[j-k]}+sigma[j], onde a soma é realizada para todos os k=1...infinito,
quando todos os coeficientes, exceto o primeiro, são iguais a zero. Assim, ele pode ser definido pela expressão
X[j]=a*X[j-1]+sigma[j], (1)
onde a&#61485;é algum coeficiente numérico que não excede um em valor absoluto (|a| < 1), e sigma[j], uma seqüência de variáveis aleatórias formando ruído branco. Assim, X[j] depende de sigma[j] e de todos os sigmas anteriores, mas é independente dos valores sigma futuros. Portanto, na equação sigma[j], é independente de X[j-1] e dos valores anteriores de X. Por causa disso, sigma[j] é chamada de inovação (update).
As seqüências X relação satisfatória (1) também são freqüentemente chamadas de processos Markovianos. Isto significa que
1. A expectativa do processo M é identicamente zero M=0.
2. O coeficiente de autocorrelação r entre os membros da série, espaçados por passos k, é igual a r=a^k.

As principais características do processo de autoregressão de primeira ordem são as seguintes.

A condição de estacionaridade da série é determinada pela exigência do coeficiente a:
|a|<1
A função de autocorrelação do processo Markov é definida pela seguinte relação:
r(t)=a^t ,
isto é, o valor de a determina o valor da correlação entre dois membros vizinhos da série X[j]. Podemos ver que o grau de aperto da correlação entre os termos da seqüência (1) diminui exponencialmente à medida que eles são removidos mutuamente no tempo.
A densidade espectral do processo Markov (1) pode ser calculada usando a forma conhecida da função de autocorrelação:
p(w)=2sigma0^2/(2+a^2-2a*cos(2Pi*w))
Se o valor do parâmetro a é próximo a 1, os valores adjacentes da série X[j] estão próximos uns dos outros em magnitude, a função de autocorrelação diminui exponencialmente enquanto permanece positiva e o espectro é dominado por baixas freqüências, o que significa que a distância média entre os picos da série X[j] é bastante grande. No valor do parâmetro um perto de -1, a série oscila rapidamente (altas freqüências predominam no espectro) e o gráfico da função de autocorrelação diminui exponencialmente para zero com uma mudança alternada no sinal.

Após identificar o modelo, ou seja, determinar seus parâmetros (neste caso é a)
podemos construir uma previsão de um passo à frente:
Y[j+1]=Y[j]+a*X[j].

É isso aí.

Yura, agora tenho um pedido para você. Implementar no Mathcad o algoritmo mostrado na fig. abaixo e mostrar o FAC resultante da TF para EURUSD minutiae durante algum ano.

 
<br / translate="no"> Quando lido em fontes competentes (ao contrário da minha narrativa), talvez minhas "práticas" sejam úteis:

(1) Eu escolhi o canal como o estado do sistema em vez de valores de preços específicos ou a diferença entre os preços
(2) Tomei as probabilidades de algumas características de canal para fazer uma matriz de probabilidade de transição.
(3) Eu tomei uma mudança de canal como um passo na matriz
(4) Eu "intuitivamente escolhi" o processo de nascimento e morte como um processo; não podemos usar o processo de fila de espera para nossos propósitos, podemos?

E eu já demonstrei os resultados de seu uso. :о)


Tudo está claro aqui, exceto o ponto 2). Provavelmente considerado uma simples coisa banal, ou talvez até mesmo um know-how.
No ponto 4) (já aborreci o solandr com esta pergunta) - "processo de nascimento e morte" foi definido no tratamento estatístico do ponto 3) ou a partir de algumas considerações teóricas gerais?
 
Yurixx 22.01.07 16:24
Bem, talvez entre nós donas de casa você possa me dizer o que é ?
Não tem que ser um processo Markov, você pode apenas falar sobre as correntes Markov.
Você pode até mesmo falar de correntes.

A maneira mais fácil é usar um exemplo.
O processo Markoviano mais simples é uma moeda comum.
De que lado uma moeda cai é independente do estado anterior.
Diz-se que um processo como uma moeda tem a propriedade de ser markovian,
ou seja, não tem memória do passado. Uma série de lançamentos de moedas seria chamada
uma cadeia de Markov. Mais precisamente, não os lançamentos em si, mas as probabilidades.
Há processos Markov mais complicados, há muitos processos diferentes.
Processos Markov. Há alguns que "lembram" o estado anterior, mas
mas não se lembram do pré-existente, etc...
Bem, em geral, esta é uma história simples.
A matemática ali, em alguns lugares, é bastante confusa e não óbvia, e as fórmulas são enormes.
 
Yurixx 22.01.07 16:24
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.

A coisa mais fácil a fazer é usar um exemplo.
O processo Markov mais simples é uma moeda comum.
De que forma uma moeda cai é independente do estado anterior.
Diz-se que um processo como uma moeda tem a propriedade de ser Markovian,
ou seja, não se lembra do passado.


Até onde me lembro, a definição de um processo Markov do posto anterior (A(i)[s+1] depende apenas de A[s]) O lançamento de uma moeda ao ar livre não pode ser um processo Markov, pois a probabilidade da águia cair em cada lançamento não depende de nenhum julgamento anterior.
 
Ao Neutron

<br / translate="no"> Nossa tarefa é escolher um modelo adequado para descrever o comportamento de resíduos "aleatórios" X[j] da série temporal investigada Y[j], obtidos após eliminar da série temporal original seu componente não aleatório (se houver).


Sergey, espero em sua paciência. Explique-me (é bem possível que eu tenha perdido algo), e por que precisamos de um modelo para descrever resíduos aleatórios, e o que é "eliminação". E me parece que a "eliminação" de resíduos aleatórios é inerentemente aleatória. Que embrulho. :о)

Para Rosh


tudo está claro aqui, exceto o item 2). Pode ser considerado uma coisa simples e trivial, ou pode ser um know-how.


Aqui é bastante simples. Tive que definir de alguma forma o estado do sistema a fim de fazer previsões. Eu estava brincando por muito tempo com parâmetros bastante compreensíveis: skoe, comprimento do canal, ângulo de inclinação da linha LR. Mas no decorrer da experiência, cheguei à conclusão de que alguns parâmetros de canal deram melhores resultados.

E cheguei a estas características a partir do seguinte:


No item 4) (já aborreci o solandr com esta pergunta) - "processo de nascimento e morte" foi definido no processamento estatístico do item 3) ou a partir de algumas considerações teóricas gerais?


OK, vou ser honesto com você. Meu primeiro pensamento foi este. Pegue o histórico, encontre canais, calcule estatísticas. Acabei abandonando esta abordagem. Como escrevi antes, nomeei meu método de análise evolutiva de ondas fractais (bem, eu o nomeei e gosto dele). É baseado em "evolucionário" - retrabalhado "sob os canais" da MSP. Assim, investiguei a dinâmica de algumas características dos canais. O canal, por outro lado, não é definido da minha maneira habitual. Aqui neste post "grasn 18.01.07 16:11" há uma imagem que mostra a força da conexão entre as amostras. O canal é do dado atual ao valor mais fraco desta conexão. Assim que você encontrar uma contagem fraca, isso significa que você encontrou a origem do canal. Eu movo o "cursor" para este ponto e começo a monitorar, como diz North Wind, a qualidade do processo.

A dinâmica de algumas características dentro do canal é o processo de nascimento e morte do canal (pelo menos no meu caso é assim).
 
Era uma vez, há muitas páginas, discuti com o fundador da linha sobre a teoria de Elliott e ele se recusou a articular sua essência em poucas palavras, citando a espessura dos livros.

Agora, graças ao Neutron, ao gramado e ao Northwind, fica claramente demonstrado como é feito.

Embora minha idade não me permita mais freqüentar a escola, sou muito grato por seu desejo de me ensinar alguma sabedoria, e a lição que você me deu, Sergei, certamente eu a farei.

Prometo e prometo solenemente. :-)
 
Rosh 22.01.07 19:33
Até onde me lembro, a definição de um processo Markov do posto anterior (A(i)[s+1] depende apenas de A[s]) O lançamento de uma moeda ao ar livre não pode ser um processo Markov, pois a probabilidade da águia cair em cada lançamento não depende de nenhum julgamento anterior.

Eu gostaria de discutir este ponto com mais detalhes, mas infelizmente há absolutamente
tempo. Direi apenas que a Sra. Wentzel E.S. em seu livro didático afirma
o mesmo, a moeda é um processo Markoviano, há até mesmo uma prova.
A propósito, ela tem um processo Markoviano (um processo sem conseqüências) - se para cada momento
a probabilidade de qualquer estado do sistema no futuro depende apenas do estado
do sistema no momento atual, e não depende de como o sistema chegou a
este estado.
 
Rosh 22.01.07 19:33
Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.

Eu gostaria de discutir este ponto com mais detalhes, mas infelizmente há absolutamente
tempo. Direi apenas que a Sra. Wentzel E.S. em seu livro didático afirma
o mesmo, a moeda é um processo Markoviano, há até mesmo uma prova.
A propósito, ela tem um processo Markoviano (um processo sem conseqüências) - se para cada momento
a probabilidade de qualquer estado do sistema no futuro depende apenas do estado
do sistema no momento atual, e não depende de como o sistema chegou a
este estado.


Sim, onde há mulheres, há sempre confusão. Estava brincando. :о) Tomemos um exemplo simples de um livro editado pela Maximov: um jogador joga um jogo que consiste em festas. A probabilidade de ganhar o próximo jogo é igual a p, se o jogo anterior for ganho, e p1, se o jogo anterior for perdido. Estado E1 - o próximo jogo é ganho, E2 - o jogo é perdido.

Vagando pelos estados E1 e E2 é descrito por uma matriz de probabilidade de transição:
|(p) (1-p)|(p) (1-p)|(p)
|(p1) (1-p1)|(p1) (1-p1)|(p1)
 
Aí está, outra coisa :) Você pode até dar uma razão para que ganhar depois de perder tenha uma probabilidade diferente em comparação com ganhar depois de ganhar .
"Os homens não choram, os homens ficam chateados" :)