FR H-Volatilidade - página 9

 
Yurixx:

Preciso visualizá-lo de alguma forma para descrever a lógica da tomada de decisões,


Às vezes ajuda a visualizar o diagrama Voronov, você só precisa entender o que deve ser colocado nos eixos X e Y. Aqui está um exemplo com explicações, algo que consegui desenterrar na Internet.
Arquivos anexados:
doc.zip  631 kb
 
Yurixx:

Mesmo com um número não muito grande de parâmetros, o espaço de fase do sistema se revela muito multidimensional para a percepção humana. Se a abordagem estiver correta e as estimativas escolhidas permitirem o agrupamento do espaço de fase, então a localização e a forma dos agrupamentos podem ter uma topologia muito complexa. Temos que visualizá-lo de alguma forma para descrever a lógica de decisão, ou introduzir cegamente classes e critérios de filiação. NS é muito melhor nisso, assim como avaliações probabilísticas (como podemos ver).


Se eu entendi corretamente, o pesquisador precisa preparar os dados de entrada para os NS com antecedência, a fim de conseguir o "agrupamento do espaço de fase". Neste caso, os NS alocarão independentemente áreas "significativas" no espaço de fase multidimensional (PS) dos parâmetros de entrada e suas combinações arbitrárias que reduzirão significativamente o volume do PS e, conseqüentemente, o volume dos cálculos necessários. Certo?

Mas quais são as "avaliações probabilísticas" que a NS "lida muito melhor" eu não entendo.

 
Prival:
Às vezes o diagrama Voronov ajuda na visualização, mas você precisa entender o que deve ser colocado nos eixos X e Y. Aqui está um exemplo com explicações, algo que eu consegui desenterrar na web.

Corrija-me se eu estiver errado. O diagrama de Voronov mostra o limite ótimo (em certo sentido) de divisão do espaço no qual as condições de limite para uma determinada classe de equações diferenciais são dadas. Como, então, isso se relaciona com o tema em questão?
 

Neutron

Lamento realmente não ter nada a ver com H-volatilidade FR, tem a ver com NS, ou melhor, teoria do reconhecimento, um diagrama às vezes ajuda a visualizar as classes e como decompô-las.

Acabei de ver a pergunta e tentei ajudar.

 
Neutron:


Se o entendi corretamente, o pesquisador deve primeiro preparar os dados de entrada para o NS a fim de conseguir o "agrupamento do espaço de fase". Neste caso, os NS alocarão independentemente áreas "significativas" em um espaço de fase multidimensional (PS) de parâmetros de entrada e suas combinações arbitrárias que permitirão diminuir consideravelmente o volume do PS e, conseqüentemente, o volume dos cálculos necessários. Certo?

Mas quais são as "estimativas probabilísticas" que a NS "lida muito melhor", não entendo.


O agrupamento de FPs é uma tarefa separada e é realizada pela Kohonennet. É uma rede de uma camada, que no processo de aprendizagem (sem um professor ! ou seja, auto-aprendizagem) realiza o agrupamento de PFs. Em seguida, uma função do núcleo é ajustada a esses dados, que descreve a distribuição do agrupamento. Então é construída uma rede probabilística, que (tanto quanto eu entendi) na versão mais simples não requer sequer treinamento, mas simplesmente usando estatísticas Bayesianas considera a probabilidade de que a nova amostra pertença a um cluster em particular. A saída é o conjunto vencedor. Este é apenas um esquema simplificado, tanto quanto possível.

A arquitetura do NS, a forma como os dados de entrada são preparados e o algoritmo de aprendizagem são as três pedras-chave nas quais tudo se baseia. Como você pode ver, cada um dos três componentes envolve algo que não é formalizável. Tanto quanto sei, isto é o que a NS herda de seu criador, o que lhe permite trabalhar com sucesso. E os números - pesos e parâmetros da função de ativação - são apenas como um apêndice. Todo mundo tem cabeça, mas algumas pessoas pensam com ela e outras comem com ela. :-)

 

Obrigado, Yura. Ótima resposta!

Se você não se importa, farei uma pergunta sobre a aplicabilidade da NS. Por exemplo, vou me referir aos meus carneiros - construções Kagi. Temos um Zig-Zag gerador (linha azul) e uma linha de transação (vermelha).

Decorre da teoria (tese de Pastukhov) que o comportamento da linha vermelha é estatisticamente previsível e é provável que (o comportamento) esteja em ziguezague com a amplitude S=(H-volatilidade-2)*H. Este é o retorno estatístico médio da estratégia em uma amostra representativa. Infelizmente, o valor estimado é geralmente menor do que o spread. E isto é tudo o que o método estatístico de análise de séries temporais pode nos dar neste caso.

Por outro lado, temos um Zig-Zag gerador cujo retorno (praticamente impossível de realizar) para um intervalo de tempo fixo, é o máximo possível para uma determinada etapa da partição H, e o retorno, por exemplo com a partição H=spread, é o máximo possível para qualquer BP. Quem me dera poder colocar minhas mãos em uma ferramenta capaz de prever o Zig-Zag! Ou, pelo menos, provar a possibilidade, em princípio, de tal previsão com rendimento maior do que aquele dado pelo método de previsão (S).

Entendo corretamente que o problema nesta formulação é adequado para análise com a NS?

P.S. Parece-me que prever o eqüidistante Zig-Zag (com um único passo) é a melhor opção. Em segundo lugar, nos livramos da dimensionalidade ligada à escala temporal - não é necessário, pois negociamos apenas mudança de preço, e o intervalo de tempo, durante o qual esta mudança ocorreu, na primeira aproximação, não está incluído na rentabilidade.

 
Neutron:

Quem me dera poder colocar minhas mãos em uma ferramenta capaz de prever o Zig-Zag! Ou pelo menos provar que é possível, em princípio, fazer tais previsões com retornos mais altos do que aqueles dados pelo Statmethod (S).

Entendo corretamente que o problema nesta formulação é adequado para análise com a NS?

P.S. Parece-me que prever o eqüidistante Zig-Zag (com um único passo) é a melhor opção. Em segundo lugar, nos livramos da dimensionalidade ligada à escala temporal - não é necessário, porque negociamos apenas mudança de preço, e o intervalo de tempo, durante o qual esta mudança ocorreu, na primeira aproximação, não está incluído na rentabilidade.


Teoricamente, é claro, é adequado. Mas praticamente ...

As poucas coisas que li nas redes abundam com conselhos aos iniciantes: prever o comportamento dos preços é ineficaz. De fato, se você pensar nisso, como a rede saberá de repente como o preço se movimentará no futuro. Só porque o embalamos com muitos neurônios e o alimentamos com muitos dados? Neste assunto sou um racionalista. Este conhecimento não aparece do nada e não nasce por si só. Escrevi sobre três baleias por uma razão. Além destas baleias, a fonte da qual são extraídas é ainda mais importante - a intenção do autor. E neste conceito deve haver uma idéia de quais dados e de que forma podem conter as informações essenciais sobre o mercado, como eles devem ser processados na rede para obter outros números dos quais se possa tirar uma conclusão significativa para a tomada de decisões e, finalmente, como ensinar a rede a encontrar esses números.

Deste ponto de vista, imho, o problema nesta formulação, embora adequado para a rede, é complicado e tem pouca perspectiva. Como os carrapatos e o ziguezague construídos sobre eles têm distribuições bastante semelhantes e não é mais fácil prever o ziguezague do que o preço.

Parece-me que o ZigZag é realmente interessante de usar como um insumo de rede, mas como a forma mais conveniente de representação de padrões de preços. Esses mesmos padrões, o link para o site que você me deu, pode ser uma opção muito interessante. Mas neste caso, a rede não prevê o preço, mas determina o estado do mercado. Esta é uma abordagem ligeiramente diferente. Para NS, dar saída estatística para cima ou para baixo é uma tarefa muito mais realista do que prever movimentos. Mas esta variante combina bem com o ZigZag. Portanto, há perspectivas, só precisamos fazer a declaração do problema de tal forma que ele seja solvível.

 

Obrigado, Yura, pelas explicações lúcidas - agora minha cabeça está um pouco mais clara.

A propósito, eu estava tão certo de que a linha de transação FR (a vermelha da foto anterior) tem distribuição normal, que nem queria estudar este ponto. Qual foi minha surpresa quando eu vi ISTO:

Concordar, um resultado inesperado... Compare com a foto no primeiro post deste tópico. Lá, o FR para os lados do Zig-Zag é dado.

 

Sim, é uma imagem interessante. Se eu entendi corretamente, é para cagi-particionamento com o parâmetro H=10 ? Mas uma certa conexão com a imagem do primeiro posto ainda é aparente.

A propósito, ocorreu-me um pensamento. Eu acho que, mesmo assim, você estava certo sobre a perspectiva de usar NS para a previsão ZigZag. Só que não deve ser um kagi, mas um renko-construção. Nesse caso, uma formalização mais ou menos clara dos padrões ZigZag é de fato possível e, portanto, agrupando o espaço desses padrões e prevendo o tamanho do segmento juntamente com a avaliação estatística da validade dessa previsão. Estou interessado na sua avaliação deste pensamento. O ponto principal é a diferença entre kaga e renko. Para Renko, estou claro sobre como os padrões podem ser formalizados e, portanto, como compará-los uns com os outros e como avaliar sua proximidade. Para o kaga, o quadro é muito confuso e, portanto, o mesmo procedimento pode não funcionar.

Por outro lado, eu sei a priori que o que é verdade para o kaga também será verdade para o renko. Mas não tenho certeza sobre o contrário. Se o oposto também for verdade, então meu viés em relação ao renko é uma falácia e NS pode muito bem ser aplicado para prever o tamanho do segmento de qualquer ZigZag, tanto renko quanto kaga.

O que você acha?

 

Por um lado, as construções Kagi determinam a posição do extremo da BP com uma precisão ao ponto (Renko ao passo de partição H). Por outro lado, não está claro se precisamos de tal precisão? Neste sentido, Renko parece mais atraente por causa do passo equidistante H na escala de preços. Em resumo, a questão precisa ser investigada.

Quanto à formalização da tarefa de previsão Zig-Zag, me parece como uma estimativa de uma provável amplitude de movimento U do preço (vetor vermelho) desde o ponto de fim da formação do extremo atual t=0, até o ponto do extremo esperado t=1 (ver Fig. ).

Neste cenário, a única coisa a prever é a amplitude do movimento do vetor U, pois sua direção é predefinida! - coincide com a direção do vetor H (seta sólida verde). O alcance que o vetor U pode receber varia de 0 pontos ao infinito (ver fig. à direita). O valor mais provável da amplitude que o vetor U toma é de 2 pontos e seu valor médio é um pouco menor que N. A propósito, se um valor provável fosse maior que o spread, seríamos capazes de considerar esta estratégia como positivamente lucrativa. Estou falando de uma possível aplicação do FR para análise de arbitragem da BP.

É claro que a saída NS deve ser alimentada com um Zig-Zag, mas o que alimentar a entrada... também um Zig-Zag deslocado por um passo? Mas, você não precisa de NS para analisar esta situação! Acho que nossa tarefa é detectar a arbitragem incipiente desde cedo (ver figura). Para fazer isso, já precisamos analisar a familiaridade da linha de transação. Exceto, o problema é que geralmente consiste de 1-2 mais raramente 3 nós e no momento da identificação o mercado se torna eficiente. Talvez haja alguns sinais indiretos de origem da arbitragem, então a tarefa de sua detecção precoce, classificação e constante modernização cabe apenas à NS.

O que você acha?

Eu li na internet:

Что лучше, статистические методы или нейронные сети? Лучшим ответом на этот сугубо практический для прикладника вопрос является “It depends”. По-русски это означает “Все зависит от ситуации”.

A principal conclusão prática que se pode tirar resume-se à frase, que já se tornou um aforismo: "Se nada ajuda, tente redes neurais".
Razão: