Etiqueta de mercado ou boas maneiras em um campo minado - página 15

 
Neutron >> :

Você mesmo pode pesquisar as fórmulas na literatura, que é abundante na Internet.

Não sejamos muito precipitados. E não tente complicar sua vida com todo tipo de artifícios, tais como "aprendizagem não linear", etc., é do Maligno. Beleza e confiabilidade na simplicidade e harmonia!

Salve e tenha piedade...

 
:-)
 
Neutron >> :

Vamos com calma. E não tente complicar sua vida com todo tipo de artifícios como "aprendizagem não-linear" e afins. Beleza e confiabilidade na simplicidade e harmonia!

Ы? É um clássico. De qualquer forma, vou deixá-lo a seu critério.

 
Neutron >> :

Você tem um vetor de sinais de entrada (que seja unidimensional) de comprimento n amostras, e que n+1 amostras seja uma verificação da qualidade do treinamento da Rede. Você lhe dá este vetor (n amostras), igualando todos os pesos a valores aleatórios na faixa +/-1 com distribuição uniforme de densidade de probabilidade, e vê o que a grade produz. Suponha que você defina +5,1, e verifique as contagens n+1 (o valor a que a grade treinada no vetor de treinamento deve aspirar) +1,1. Em seguida, pegue a diferença entre o valor obtido e o desejado +4 e acrescente este valor, mantendo seu sinal a cada peso do neurônio de saída (se estiver sem FA), ou encontre a derivada de FA a partir deste valor e adicione-a aos pesos do neurônio de entrada (se tiver FA). E assim por diante.

Se você digerir esta peça, eu lhe direi como empurrar mais o erro para os pesos de entrada da primeira camada (input).

1. Segundo entendi, a grade deve ter dois modos de operação: 1 - aprendizagem, 2 - reconhecimento e estes modos não são compatíveis, ou seja, a grade está em um deles a qualquer momento.


2. Um vetor de sinais de entrada de comprimento n, é, por exemplo, uma matriz V[n,3] (para uma grade com três entradas) de valores RSI em n barras - certo? Então a contagem n+1 é a mesma RSI em n+1 bar. Nesse caso, treino a rede para prever o comportamento futuro do RSI, com base em seu comportamento anterior.

Se assim for, os pesos estão todos claros, até o ponto em que eu preciso tomar a derivada da função FA não suave.( Quero dizer, ainda não sei como fazer isso... Talvez apenas tomar o coeficiente angular entre dois pontos FA(RSI(i)) adjacentes. ? Bem, ok, é um problema técnico - vai ser resolvido).

 
paralocus писал(а) >>

1. Segundo entendi, a grade deve ter dois modos de operação: 1 - aprendizagem, 2 - reconhecimento e estes modos não são compatíveis, ou seja, a grade está em um deles a qualquer momento.

2. Um vetor de sinais de entrada de comprimento n, é, por exemplo, uma matriz V[n,3] (para uma grade com três entradas) de valores RSI em n barras - certo? Então a contagem n+1 é a mesma RSI em n+1 bar. Nesse caso, treino a rede para prever o comportamento futuro do RSI, com base em seu comportamento anterior.

Se assim for, os pesos estão todos claros, até o ponto em que eu preciso tomar a derivada da função FA não suave.( Quero dizer, ainda não sei como fazer isso... Talvez apenas tomar o coeficiente angular entre dois pontos FA(RSI(i)) adjacentes. ? Bem, ok, é um problema técnico - vai ser resolvido).

É muito bem explicado em F.Wasserman.Neurocomputing - Teoria e Prática

 
Vinin >> :

Muito bem explicado em F. Wasserman, Neurocomputing - Teoria e Prática

Sim, obrigado, eu encontrei um.

 
paralocus писал(а) >>

1. Segundo entendi, a grade deve ter dois modos de operação: 1 - aprendizagem, 2 - reconhecimento e estes modos não são compatíveis, ou seja, a grade está em um deles a qualquer momento.

2. Um vetor de sinais de entrada de comprimento n, é, por exemplo, uma matriz V[n,3] (para uma grade com três entradas) de valores RSI em n barras - certo? Então a contagem n+1 é a mesma RSI em n+1 bar. Nesse caso, treino a rede para prever o comportamento futuro do RSI, com base em seu comportamento anterior.

Se assim for, os pesos estão todos claros, até o ponto em que eu preciso tomar a derivada da função FA não suave.( Quero dizer, ainda não sei como fazer isso... Talvez apenas tomar o coeficiente angular entre dois pontos FA(RSI(i)) adjacentes. ? Bem, ok, esta é uma questão técnica - será resolvida).

1. Com a chegada de um novo dado, a grade é treinada sobre o novo vetor de treinamento e imediatamente após o treinamento produz uma previsão 1 passo à frente, e assim por diante até o infinito. Ou seja, é uma questão de treinamento adicional de NS em cada passo.

2. A malha com três entradas lê três últimas leituras de comprimento vetorial n+1+3, e é treinada por um turno sequencial de um passo de todas as n vezes.

Não há nenhum problema com o derivado. Se usarmos FA=th(x) tangente hiperbólica como FA, então não temos nenhum problema para encontrar derivada dela, dFA=1-th(x)^2 e peso de correção na entrada deste neurônio será: dw=delta*(1-th(s)^2), onde delta é erro entre a saída da grade e o valor real da amostra, s é saída da grade.

 
Neutron >> :

1. Com a chegada de um novo dado, a grade é treinada sobre o novo vetor de treinamento e imediatamente após o treinamento produz uma previsão 1 passo à frente, e assim por diante até o infinito. Isto é, falamos de treinamento adicional de NS em cada etapa.

2. A malha com três entradas lê três últimas leituras de comprimento vetorial n+1+3, e é treinada por um turno sequencial de um passo de todas as n vezes.

Não há nenhum problema com o derivado. Se usarmos como FA hiperbólico tangente FA=th(x), então não temos nenhum problema para encontrar derivado dele dFA=1-th(x)^2 e peso de correção na entrada deste neurônio será: dw=delta*(1-th(s)^2), onde delta é erro entre a saída da grade e o valor real da amostra, s é saída da grade.

É isso aí! Portanto, não há necessidade de reeducá-la. Oh, ótimo!

2. Uma grade com três entradas, lê as três últimas amostras de um vetor de comprimento n+1+3, e é treinada sobre ela, deslocando-se sequencialmente por um passo todas as n vezes.


Devo ter falado mal aqui. Não uma grade com três entradas, mas um neurônio com três sinapses, cada uma das quais recebe um sinal de entrada:

1synaps - th(RSI(i))

2synaps - th(RSI(i+dt))

3synaps - th(RSI(i+td*2))

1. inicializamos os pesos das sinapses com valores aleatórios (-/+1), o que faz sentido - há apenas três deles.

2. Então precisamos alimentar cada entrada com n amostras do sinal de entrada, ou seja, uma seqüência de sinais de entrada em n barras anteriores.

3. Em seguida, o neurônio de saída na barra n e compará-lo com o valor n+1 do sinal de entrada, a diferença (erro) com seu sinal deve ser adicionada a cada peso se a saída do neurônio sem FA.

Se a saída for de FA, adicionamos aos pesos o erro multiplicado pelo prudente de FA(na n-ésima barra)

4. Avance uma barra (n+1th torna-se nth) e repita os passos 2 a 4.


Perguntas:

1. n = k*w*w*w/d ?

2. Para calcular o valor do erro, sempre subtrair a contagem do teste do valor de saída da grade?

 

Sim!

Então passemos a épocas de aprendizado. Haverá de 10 a 1000, dependendo dos objetivos e meios, e tocaremos em mais detalhes sobre como formar um vetor de correção de pesos (na verdade, é comutativo dentro de uma época) e tem um comprimento igual ao número de sinapses w em uma amostra de comprimento n-contagens.

Em resumo, não se preocupe ainda.

 
Neutron >> :

Sim!

Depois passamos a épocas de aprendizado. Haverá de 10 a 1000, dependendo dos objetivos e meios, e tocaremos em mais detalhes sobre como formar um vetor de correção de pesos (na verdade, é comutativo dentro de uma época) e tem um comprimento igual ao número de sinapses w em uma amostra de comprimento n-contagens.

Em resumo, não se preocupe ainda.

Neutron, vou fazer um curto intervalo de tempo. Tenho que repensar tudo mais uma vez e colocá-lo em códigos pelo menos para um neurônio. De qualquer forma, um ou dois dias, e então continuaremos.

Muito obrigado!

Razão: