Para fazer o acompanhamento - página 33

 

Vamos resumir o resultado intermediário.

O ramo propõe um paradigma de geração e verificação de estratégias comerciais que é fundamentalmente diferente do "padrão" (de acordo com a Pardo). No padrão, a seleção da estratégia ideal é feita através da leitura dos parâmetros de PF da própria estratégia através de numerosas séries de testes sobre o histórico e seleção adicional dos pontos de PF que otimizam a estratégia a ser mudada. Na proposta a análise ("bloco de análise e intenções preliminares") não muda em nada, porque os negócios permanecem no lugar, e apenas o filtro de contexto ("bloco decisivo") muda.

Em princípio, é possível alcançar algo semelhante à otimização aqui, se a forma requerida de restrições de filtro de contexto for definida com antecedência (por exemplo, todos os pontos de contexto FP devem estar dentro de um "paralelepípedo multidimensional" com coordenadas variáveis de vértices). Mas este seria apenas um caso particular do agrupamento que queremos alcançar.

Portanto, em nosso caso, um otimizador simplesmente não é necessário. Apenas uma execução de teste com filtro de contexto desligado e coordenadas de saída de negócios em FP de contexto é suficiente, após o que podemos realizar o agrupamento de filtros por meios independentes.

Tenho a seguinte pergunta: o que nos faz ter tanta confiança que o novo paradigma nos proporcionarámaior robustez da estratégia?

Assumimos que, em futuras negociações, em negociações reais, a seqüência de negócios (nos ateremos à variante do Candidato) passada pelo novo filtro de contexto mostrará um fator de lucro bastante elevado. O que pode acontecer que não seja assim?

Talvez possamos tentar analisar a estrutura interna de um "cluster de contexto lucrativo" por negócios individuais - numerando-os, marcando os lucrativos e, digamos, observando como o comércio foi realizado dentro deste cluster na história? Se há muitos segmentos da trajetória contendo quase só negócios não rentáveis dentro deste cluster, não é bom.

Em resumo, pelo menos alguns argumentos adicionais são necessários para justificar a aceitabilidade do novo paradigma e para estabelecer limites a seu uso.

 
Mathemat >>:

У меня следующий вопрос: откуда у нас такая уверенность в том, что новая парадигма обеспечит нам бо льшую робастность стратегии?

Em geral, não há certeza. Como, no entanto, no caso da abordagem padrão.

Suponho que duas coisas são necessárias para a robustez deste procedimento:

- A zona ideal deve ser real. Ou seja, não devemos lidar com uma flutuação, mas com uma dependência estatisticamente válida.

- Os próprios parâmetros FP utilizados devem ser robustos. Isto é, se eles mudarem com o tempo, então lentamente o suficiente.


Ou seja, muito trabalho precisa ser feito para encontrar e verificar os parâmetros corretos. O que não invalida a utilidade e as considerações teóricas.


P.S. Ao alterar os parâmetros ao longo do tempo, é claro, queremos dizer alterar sua função de distribuição.

 
Candid >>:

- Оптимальная зона должна быть реальной. То есть мы должны иметь дело не с флуктуацией, а со статистически достоверной зависимостью.

Bem, sim, se os limites externos da zona ótima são os mesmos que um floco de neve, não se pode contar com nada de robusto.

A zona ideal, se ela migrar no espaço FP, não deve fazê-lo de forma muito abrupta.

Em resumo, deve ser sólido. Algum tipo de hypersphere, hiperparallepiped ou algo semelhante, movendo-se em baixa velocidade.

 

Talvez devesse ser assim:

1) Determinar os pontos ideais de entrada na história levando em conta o spread, maximização do lucro, número de negócios, drawdown, etc. (100% certo, não vai parecer um zzz de longe)

2) Usando Kohonen Maps ou outros métodos, determinar a relação dos negócios recebidos com o contexto atual (total de leituras indicadoras ou outros)

3) Comércio utilizando os padrões encontrados.

 

Andrei, você espera que as coordenadas no espaço de contexto identificadas no passo 2 permitam que você entre com mais precisão?

 
joo писал(а) >>

Talvez devesse ser assim:

1) Determinar os pontos ideais de entrada na história levando em conta o spread, maximização do lucro, número de negócios, drawdown, etc. (100% certo, não vai parecer um zzz de longe)

2) Usando Kohonen Maps ou outros métodos, determinar a relação dos negócios recebidos com o contexto atual (total de leituras indicadoras ou outros)

3) Comércio utilizando os padrões encontrados.

Sem saída (eu mesmo tentei)

Há muitas regularidades de diferentes durações de tempo + aleatoriedade, e cada ponto de entrada ideal pode ter uma causa em uma ou mais regularidades mascaradas pela aleatoriedade. Como resultado do destaque do contexto, só conseguimos um ajuste a esta mistura aleatória, em vez de destacar os padrões individuais e o contexto de seu uso. Cada padrão tem seu próprio contexto. imho.

 

Há outra coisa aqui - à medida que o número de parâmetros cresce, cresce também a dimensionalidade da PF. Seguindo esta tendência, crescem as exigências de estatísticas de negócios. Penso que já em 3 parâmetros podemos falar de estatísticas apenas para o pipsing desenfreado :).

Por outro lado, é desejável ter parâmetros sobre o número de graus de liberdade. Para esperar que haja apenas 2 ou 3 deles, você tem que ser um otimista muito otimista. Imho, é claro. Embora, ainda não exista um indicador do número de graus de liberdade.

Esta é a verdadeira tragédia de qualquer abordagem "objetiva", incluindo a abordagem padrão.

 

Os parâmetros de fronteira da zona ótima são de uma forma ou de outra transformados nos parâmetros latentes do próprio TS, não importa como são obtidos, pela abordagem padrão ou pelo agrupamento do contexto. Assim, acontece que ainda não escapamos da parametrização do TC.

Sobre 2-3 parâmetros: há uma esperança de que se o sistema entrar principalmente em seções de tendência, estes parâmetros serão "quase suficientes", pois em tempos de catástrofes o número de graus de liberdade do mercado provavelmente diminuirá significativamente (torna-se mais simples).

E em geral, eu não me concentraria no número de graus de liberdade. Não estamos procurando uma função que explique completamente o mercado, mas apenas um TS mais ou menos robusto sobre ele. Às vezes pode ser errado (e certamente será!), mas podemos esperar que 2-3 parâmetros sejam suficientes para a maioria dos casos.

 
joo писал(а) >>

Provavelmente ambos. :)

Obrigado pelo outro, é fácil de fazer:

Um quadrado de 500x500 pontos = um total de 250.000 pontos. Cada ponto é traçado por um objeto de "linha de tendência" (não um raio, é claro). São utilizadas linhas horizontais com comprimento 1, ou seja, segmentos que ligam pontos adjacentes. Por que não um objeto pontual? Porque um objeto pontual não pode ser visto em uma trama. Dependendo dos valores de x e y coordena, a cor do objeto é calculada. Assim, existem 250.000 objetos nesse quadrado, cada um tem sua própria cor. E o MT4 pode lidar com isso sem nenhum problema!

A única limitação é que a MT tem uma pilha limitada de estilos gráficos. O valor máximo é de 512. Isso significa que você não pode usar mais cores do que este número.

 
Mathemat писал(а) >>

Tenho a seguinte pergunta: como podemos ter tanta certeza de que o novo paradigma nos proporcionará uma estratégiamais robusta?

Partimos do princípio de que em futuras negociações, já na vida real, a seqüência de negociações (vamos nos ater à variante do Candidato) que passaram no novo filtro de contexto mostrará um fator de lucro bastante elevado. O que pode ser assim, que não será?

Em resumo, pelo menos alguns argumentos adicionais são necessários para justificar a aceitabilidade do novo paradigma e para estabelecer limites a seu uso.

Como sempre, o critério da verdade é a prática. Além disso, nada dará nem certeza nem validade.

Quero, contudo, mais uma vez prestar atenção a esse momento. O novo paradigma, como Alexey o chamou, é apenas outra metodologia. A abordagem metodologicamente correta só pode fornecer um resultado positivo se for baseada em pontos de partida corretos. (A propósito, a abordagem metodologicamente incorreta, que é o pecado da AT clássica, não pode fornecer um resultado positivo mesmo no ponto de partida certo. Portanto, é impotente e "impraticável" no mercado).

Usar FP de acordo com sua definição e função, imho, é a abordagem metodologicamente correta. Entretanto, a metodologia por si só não produz um resultado positivo !

Deve ser baseado em um par: sistema de entrada-saída - parametrização FP. Esta é a base correta. Se mesmo um componente deste par estiver errado/inadequado/dependente, o projeto inteiro não funcionará.

Portanto, não faz sentido discutir a robustez, aceitabilidade, estabilidade deste paradigma isoladamente das mesmas propriedades do sistema de entradas/saídas e parâmetros FP.

Mathemat escreveu >>

A zona ideal, se ela migrar no espaço FP, não deve fazê-lo de forma muito abrupta.

Em resumo, deve ser sólido. Algum tipo de hypersphere, hiperparallepiped ou algo semelhante, movendo-se em baixa velocidade.

Eu diria um hiperelipsóide, ele conecta a radialidade e diferentes escalas ao longo dos eixos.

Entretanto, se o cluster estiver migrando ao longo do FP, então muito provavelmente o sistema de parâmetros do FP está incompleto ou os próprios parâmetros não são escolhidos corretamente. IMHO

Razão: