FR H-Volatilidade - página 10

 

Não sei como captar, especialmente em uma fase inicial, o surgimento da arbitrariedade.

A entrada da rede deve ser o penúltimo segmento do WP, e a saída deve ser o último segmento do WP. Então, com uma configuração de rede adequada, uma escolha adequada da função de ativação e treinamento bem sucedido, se apenas N últimos segmentos forem alimentados à entrada, a rede recuperará esses N e o próximo (ou seja, o próximo) também. Não há nada para mexer com sua direção - é claro como é, mas o tamanho ...

Talvez algo saia dela.

 
Yurixx:

Não sei como captar, especialmente em uma fase inicial, o surgimento da arbitrariedade.

A entrada da rede deve ser o penúltimo segmento do WP, e a saída deve ser o último segmento do WP. Então, com uma configuração de rede adequada, uma escolha adequada da função de ativação e treinamento bem sucedido, se apenas N últimos segmentos forem alimentados à entrada, a rede recuperará esses N e o próximo (ou seja, o próximo) também. Não há nada para mexer com sua direção - é claro como é, mas o tamanho ...

Talvez algo saia dela.


E ziguezagues em que forma é melhor, absoluta ou relativa? E precisará de normalização? Acho que preciso de uma camada de Kohonen e da estrela de Grossberg. Embora eu possa estar errado.
 
Vinin:
...acho que implora por uma camada de Kohonen e uma estrela de Grossberg.

E a Medalha de Honra).
Vinin, o que é uma estrela de Grossberg?

Yurixx, sugiro um diagrama de blocos NS para este caso. Gostaria de pensar sobre isso.

 
Neutron:
Vinina:
...acho que a camada de Kohonen e a estrela de Grossberg estão pedindo por isso.

E a Medalha de Honra :-)
Vinin, que tipo de estrela é esta?

Yurixx, sugiro um diagrama de blocos NS a seu critério para este caso. Gostaria de pensar sobre isso.


É sobre aqui mesmo http://ann.hotmail.ru/vs03.htm

Mas vou me repetir (embora não seja mais eu), apenas uma citação:

Durante o treinamento de uma rede de contrapropagação, os vetores de entrada são associados aos vetores de saída correspondentes. Esses vetores podem ser binários ou contínuos. Após o treinamento, a rede gera sinais de saída que correspondem aos sinais de entrada. A generalidade da rede torna possível obter a saída correta quando o vetor de entrada está incompleto ou distorcido.
No modo de aprendizagem, o sinal de entrada é alimentado para a rede e os pesos são corrigidos para que a rede produza o sinal de saída desejado.
A camada Kohonen funciona de acordo com a regra "o vencedor leva tudo". Para um determinado vetor de entrada, apenas um neurônio desta camada produz um lógico, todos os outros produzem zeros. A saída de cada neurônio Kohonen é apenas a soma dos elementos ponderados dos sinais de entrada.
A saída dos neurônios da camada Grossberg é também uma soma ponderada da saída dos neurônios da camada Kohonen. Mas cada neurônio da camada Grossberg gera um peso que conecta este neurônio com o único neurônio Kohonen cuja saída é diferente de zero.
Na fase de pré-processamento, os sinais de entrada são normalizados para vetores de entrada.
Na fase de aprendizagem, a camada de Kohonen classifica os vetores de entrada em grupos de similares. Isto é feito ajustando os pesos da camada de Kohonen para que vetores de entrada similares ativem o mesmo neurônio da camada. Qual neurônio será ativado por um determinado sinal de entrada é difícil de prever com antecedência, pois a camada de Kohonen aprende sem um professor.
A tarefa da camada Grossberg é então produzir os resultados desejados. O treinamento da camada Grossberg é um aprendizado assistido por professores. As saídas dos neurônios são computadas como em operação normal. Então cada peso só é corrigido se for conectado a um neurônio Kohonen que tenha uma saída não nula. A quantidade de correção de peso é proporcional à diferença entre o peso e a saída desejada do neurônio Grossberg.
No modo de operação de rede, o sinal de entrada é apresentado e o sinal de saída é gerado.
No modelo de rede de contrapropagação completa, é possível gerar sinais de saída a partir de sinais de entrada e vice-versa. Estas duas ações correspondem à propagação de sinais para frente e para trás.

 
Vinin:
E ziguezagues em que forma é melhor alimentar, absoluta ou relativa? E a normalização será necessária? Acho que isso exige a camada Kohonen e a estrela Grossberg. Embora eu possa estar errado.

Neutron:

Yurixx, sugiro a seu critério o diagrama de blocos NS para este caso. Gostaria de pensar sobre isso.


Eu não posso oferecer um fluxograma. A história deste pensamento é a seguinte.

No início eu realmente pensei que NS deveria consistir de 2 camadas - Kohonen e Grosberg. O problema era apenas que para kaga cada segmento pode ser qualquer, a partir de 1 e ... Suponha que eu queira inserir N segmentos de WP e limitar o tamanho do sinal de 1 a 50. Então o número de neurônios máximos na camada de Kohonen (antes do agrupamento) é 50^N. Isso é muito. É por isso que eu estava pensando em Renko. Em H=10, o tamanho do segmento análogo de ZZ varia de 1 a 5. São apenas 5 ^N neurônios - já aceitáveis para pequenos valores de N. E todos os segmentos maiores que 5H podem ser recortados com 5H.

Em seguida, a camada de Kohonen reconhece o padrão e excita o neurônio correspondente. O último segmento de ZZ (não incluído neste N) é alimentado na camada Grosberg. A camada Grosberg contém, digamos, 100 neurônios, cada um dos quais corresponde ao tamanho do último segmento ZZ, de 1 a 100. Assim, um neurônio da camada do Grosberg está entusiasmado. Durante o aprendizado, o peso da conexão do excitado neurônio Kohonen ao excitado neurônio da camada Grosberg é aumentado em 1. Portanto, não é uma rede de contra-propagação. Mas esse era meu "plano" :-))

E então percebi que, após o treinamento na entrada do WP, a camada Grosberg me mostraria na saída apenas uma função de distribuição para o futuro segmento WP. Era basicamente isso que eu estava visando. No entanto, há dois "mas" aqui.

1. eu posso construir tal distribuição muito mais rápido e sem qualquer NS.

2. A história de quase dois anos de minutiae contém cerca de 630000 barras. A Kagi ZZ com parâmetro H=10 tem cerca de 17400 segmentos nessa história. E o número de neurônios na camada de Kohonen com N=6 será 15625, ou seja, haverá uma média de 1,1 valores experimentais para cada padrão. Que tipo de distribuição é essa? :-)

Assim, o agrupamento associado com a transição para a partição renko é desastrosamente insuficiente. Precisamos agrupar o PF usando a camada Kohonen, ou (o que é mais provável) passar para idéias mais construtivas.

PS

Não me julgue duramente por ser ingênuo. Minha experiência com redes é de 1,5 livros lidos e sem implementação.

 

Sugiro que comecemos com a mais simples. Vamos dividir ZZ em construções elementares que consistem em um vértice. Vamos normalizar os lados pelo comprimento do primeiro vértice e manter um dígito significativo após o ponto decimal. Neste caso temos 17400 construções, divididas (para o passo H=10) em grupos de 50/2H*10=25 (aproximadamente) com base na "relação de aspecto". Ou seja, em cada grupo temos várias centenas de padrões - já temos estatísticas.

Agora só precisamos escrevê-lo em NS e descobrir, como o FR do comprimento de movimento previsto (vetor verde menos H) depende do valor da margem esquerda. Exceto, colegas, NS não é realmente necessário para este problema. Ou está me faltando algo?

P.S. A figura à direita mostra a PD da relação de aspecto ZZ em um vértice. Estas são construções H=5,10,15 e 20 pips para EURUSD (carrapatos). Parece que a idéia de normalização é sólida e permite uma redução notável na dimensionalidade dos dados de entrada.

 
Neutron:

Resta enfiar isto no NS e descobrir como o FR do comprimento de movimento previsto (vetor verde menos H) depende do valor da borda esquerda. Exceto, colegas, NS não é realmente necessário para este problema. Ou está me faltando algo?

P.S. A figura à direita mostra o FR da relação lateral ZZ em um vértice. são as construções H=5,10,15 e 20 pips para EURUSD (carrapatos). Parece que a idéia de normalização é sólida e permite uma redução notável na dimensionalidade dos dados de entrada.


Acho que NS também não é necessário para isso. E a opção de normalização parece válida, isso não me ocorrera.
 

Neutron

Eu não consigo entender o que você construiu. O FR (função de distribuição) deve parecer um pouco diferente https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9

Talvez seja SP (função de densidade de probabilidade) ? Se sim, você pode repetir, com um pouco mais de detalhe, o que está no gráfico correto (o que está nos eixos X e Y)

 

para Prival

Realizamos uma série de n cálculos (o comprimento do lado direito do Zig-Zag expresso em unidades de comprimento do lado esquerdo) e obtivemos algum conjunto de valores x1,...,xi,...,xn. Esta é a chamada amostra. Traçamos os valores xi de x no eixo das abcissas. Particionar o eixo x em intervalos iguais dx e contar o número de cálculos nk que resultam em x valores no intervalo xk+-1/2dx (aqui xk é a coordenada do centro do intervalo no eixo x). Em cada intervalo, construir um retângulo de altura nk e largura dx. O diagrama assim obtido é chamado de histograma. Ele mostra a densidade da distribuição dos resultados de cálculo ao longo do eixo x.

Se o número de cálculos for grande, então a largura do intervalo pode ser pequena (com muito mais amostras em cada intervalo). Então, em vez de um histograma, obteremos um gráfico no qual um valor proporcional à fração de nk/n amostras que caem em cada intervalo é plotado no eixo das ordenadas. Este gráfico é chamado de curva de distribuição ou função de distribuição; a própria função é chamada de função de densidade de probabilidade.

P.S. O PDF pode ser normalizado, caso em que a sua parte integral em toda a gama é idêntica 1.

 

Neutron

Obrigado. Agora vejo isso. Somente você construiu a função densidade de probabilidade (PDF) e não PDF (função de distribuição), porque o PDF tem 3 propriedades. 1. Ele (PDF) não é decrescente. 2. se x tende ao infinito, então o PDF tende a 1. Naturalmente, se tudo estiver normalizado. O SP e PDF são relacionados por uma integral (PDF é uma integral do SP).

Este gráfico é chamado de curva de distribuição ou função de distribuição e a própria função é chamada de função de densidade de probabilidade" não é muito correto

Razão: