Nossa Masha! - página 4

 
Prival >> :

O MA perfeito faz. O diálogo do autor. Alexander Smirnov".

ver post ANG3110 06.02.2008 20:48

Até que ponto é perfeito se for refazido?

 
Neutron >> :

maximizamos o lucro "sem conhecer" a história, analisando apenas a última leitura da citação e seu único valor anterior X[i]-X[i-1] e é isso. Parece ser assim.

Ou seja, você está criando o sistema mais rentável possível. E o método que você está desenvolvendo utiliza todas as regularidades que podem ser rastreadas na história disponível para você.

>> Negrito!

 
TheXpert писал(а) >>

Até que ponto é perfeito se for refazido?

Pegamos uma história, construímos um MA perfeito sobre ela. Isto é o que se deve buscar. E nós procuramos aquele que não se extravie e que tenha um desvio mínimo desta curva. É assim

 
Eu continuo querendo chegar a Bulashov. A fórmula para o mashup perfeito foi mais ou menos a mesma lá. Mas acabou sendo um DEMA
 
mql4com писал(а) >>

Ou seja, você está criando o sistema mais rentável possível. E o método que você está desenvolvendo utiliza todas as regularidades que podem ser rastreadas até a história disponível para você.

Ousado!

Ora, ora, ora, ora. Eu pareço o paciente número seis?

Obviamente, se você usar este método ou qualquer outro para prever a dinâmica de uma variável aleatória integrada (exatamente aleatória, não quase aleatória), você terá zero! Por definição, não se pode vencer um processo aleatório, é uma lei da natureza. Por outro lado, as séries cronológicas (TRs), como as séries de preços, não são completamente aleatórias, existem regularidades explícitas e implícitas, cuja exploração permite a obtenção de renda estatística no mercado Forex. Portanto, precisamos de métodos e ferramentas para detectar esses padrões fracos. Um desses métodos é a aplicação de médias móveis a citações. Este método tem uma área de aplicabilidade bem definida, onde sua exploração é justificada e matematicamente correta. Em sua essência, todas as médias móveis são uma forma de integração da BP inicial. No sentido mais geral, a integração é a previsão do futuro por tendências, enquanto a diferenciação é a determinação das tendências do processo. Mas quais são exatamente as tendências? Se olharmos atentamente para o pacote de

BP-MA-previsão, não é difícil determinar o requisito de aplicabilidade do método MA, como um coeficiente de correlação positiva entre leituras vizinhas na série da primeira diferença de BP. É neste caso, os MAs darão estratégias lucrativas e nosso MA dará o melhor lucro de todos! É por isto que estamos lutando.

Entretanto, se analisarmos os preços BPs para o cumprimento do requisito acima, o resultado da análise será bastante negativo. Realmente, a realidade é que as séries de preços em todas as TFs geralmente têm um pequeno coeficiente de autocorrelação negativa na série da primeira diferença e somente às vezes, nas tendências, este coeficiente é positivo.

A aplicabilidade do método proposto e sua eficiência só pode ser estimada pelos resultados do experimento.

Vinin escreveu >>.
Eu continuo querendo chegar a Bulashov. A fórmula para o purê perfeito era mais ou menos a mesma lá. Mas acabou sendo um DEMA.
Não DEMA, mas MEMA e seu funcional não tinha um termo responsável pela maximização da rentabilidade de TC, mas tinha um termo que minimizava a segunda derivada. Isto permitiu construir um MA muito suave e isso é tudo. E aqui está o artigo de Bulashov:
Arquivos anexados:
mema_3.zip  279 kb
 
Neutron >> :


Em vez de Mashek, uso a interpolação por polinômios de poder usando o método NK
em alguma janela. Claramente, a extrapolação da curvatura de interpolação
mesmo em uma pequena vizinhança futura, é quase inútil, mas para descrever a atual
no lugar mais interessante - na borda direita da BP, nos permite descrever o estado atual.
Variando o tamanho da janela e o grau da curvatura, é possível
por outro lado, é possível ter uma visão mais geral ou detalhada do que está acontecendo, enfatizando o processo atual e suas fases.
processo e suas fases.


Na minha opinião, a única maneira de prever o futuro da BP é analisar
a evolução dos processos - como se houvesse um forte processo descendente, no estado atual
foi substituído por um processo lateral -> mais um processo de crescimento é possível.


Esta abordagem, em minha opinião, é especialmente útil para os operadores de rede, porque os NSs podem
alimentam algumas características típicas de uma curva de interpolação,
por exemplo, o componente de tendência (direção e magnitude), o desvio em relação
componente de tendência, uma forma de curva formalizada, etc. - em geral, na medida em que
de sua imaginação - ensinando a rede a identificar a corrente e a prever
Prever processos futuros e construir uma estratégia comercial com base nisso.


Você também pode suavizar o passado distante e próximo de maneiras diferentes - algo
semelhante ao EMA. Também é possível implementar uma abordagem sintética
- usar uma média móvel muito baixa com um comprimento correspondente
atraso, e o passado próximo, onde os mouvings ainda não estão funcionando,
analisá-lo utilizando a curva de interpolação.

 
Aleku >> :

Tal abordagem, em minha opinião, é especialmente útil para os operadores de rede, porque a NS pode
para alimentar algumas características típicas de uma curva de interpolação,
por exemplo, componente de tendência (direção e magnitude), desvio de
componente de tendência, uma forma de curva formalizada, etc. - em geral, na medida em que
de sua imaginação - ensinando a rede a identificar a corrente e a prever
Prever processos futuros e construir uma estratégia comercial com base nisso.

Na minha opinião, este tipo de pré-processamento de dados de entrada para NS é uma espécie de muleta. Ao integrar a BP inicial com muves, primeiramente deixamos o quadro de preços claro para nós mesmos (curva suave, tendências visíveis), enquanto o próprio processo de suavização não traz nenhuma informação adicional aos dados de entrada (não está disponível) e, portanto, não facilita o trabalho do NS. Deste ponto de vista, dados especialmente dissecados devem ser alimentados com a entrada dos NS, o que concentra ao máximo a atenção da rede no processo quase-estacionário. Um candidato a tal processo pode ser um coeficiente de correlação negativa no PDF, ele, a propósito, não pode ser isolado pela integração do kotir (suavização). Outros métodos e abordagens são necessários aqui. Isto parece promissor.


Você também pode suavizar o passado distante e próximo de maneiras diferentes - algo
semelhante ao EMA. Também é possível implementar uma abordagem sintética
- usar uma média móvel muito suavizada com um comprimento correspondente
atraso, e o passado próximo, onde o muving ainda não está funcionando,
analisar por curva de interpolação.


Tudo isso é complicado e requer uma boa justificativa, mas é quase certamente um desperdício de esforço e tempo.

 
Neutron писал(а) >>

... séries de preços em todas as TFs tendem a ter um pequeno coeficiente de autocorrelação negativa na primeira série de diferenças e somente às vezes, nas tendências, este coeficiente é positivo.

Como você calculou o coeficiente de autocorrelação? Estou ciente da " função de autocorrelação". Mas é uma função, não um número.
 

Suponha que haja alguma amostra da BP original, por exemplo, na M1. Construímos uma série da primeira diferença d1[i]=Open[i]-Open[i-1], então o coeficiente de correlação para TF=1m entre amostras vizinhas é calculado como; f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), onde o índice executa todos os valores de BP. Para a TF=2m fazemos o mesmo, construindo primeiro a BP por 2m e encontrando sua primeira diferença d2[i] e assim por diante até a TF desejada. Eu me limitei a TF=1500 minutos (cerca de 24 horas). Pode surgir a questão de como construir outra TF a partir de minutos, por exemplo para a M2, mas tudo parece ser transparente aqui. São estes dados (valor do coeficiente de correlação em RPM para diferentes TFs) que eu plotei no post anterior.

 
Neutron писал(а) >>

Suponha que haja alguma amostra da BP original, por exemplo, na M1. Construímos uma série da primeira diferença d1[i]=Open[i]-Open[i-1], então o coeficiente de correlação para TF=1m entre amostras vizinhas é calculado como; f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), onde o índice executa todos os valores de BP. Para a TF=2m fazemos o mesmo, construindo primeiro a BP por 2m e encontrando sua primeira diferença d2[i] e assim por diante até a TF desejada. Eu me limitei a TF=1500 minutos (cerca de 24 horas). Pode surgir a questão de como construir outra TF a partir de minutos, por exemplo para a M2, mas tudo parece ser transparente aqui. Exatamente estes dados (valor do coeficiente de correlação em RPM para diferentes TFs) é o que mostrei no post anterior no gráfico.

Melhor ainda ) O que são estas fórmulas e de onde você as tira.

вот посмотрите как расчитывается коэффициент кореляции https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%BA%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D0%B8

O coeficiente de correlação é calculado entre arrays, não entre contagens. Por favor, seja preciso em seu texto para que outros possam entender o que você está dizendo, afirmando e contando.

Razão: