Etiqueta de mercado ou boas maneiras em um campo minado - página 15
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Você mesmo pode pesquisar as fórmulas na literatura, que é abundante na Internet.
Não sejamos muito precipitados. E não tente complicar sua vida com todo tipo de artifícios, tais como "aprendizagem não linear", etc., é do Maligno. Beleza e confiabilidade na simplicidade e harmonia!
Salve e tenha piedade...
Vamos com calma. E não tente complicar sua vida com todo tipo de artifícios como "aprendizagem não-linear" e afins. Beleza e confiabilidade na simplicidade e harmonia!
Ы? É um clássico. De qualquer forma, vou deixá-lo a seu critério.
Você tem um vetor de sinais de entrada (que seja unidimensional) de comprimento n amostras, e que n+1 amostras seja uma verificação da qualidade do treinamento da Rede. Você lhe dá este vetor (n amostras), igualando todos os pesos a valores aleatórios na faixa +/-1 com distribuição uniforme de densidade de probabilidade, e vê o que a grade produz. Suponha que você defina +5,1, e verifique as contagens n+1 (o valor a que a grade treinada no vetor de treinamento deve aspirar) +1,1. Em seguida, pegue a diferença entre o valor obtido e o desejado +4 e acrescente este valor, mantendo seu sinal a cada peso do neurônio de saída (se estiver sem FA), ou encontre a derivada de FA a partir deste valor e adicione-a aos pesos do neurônio de entrada (se tiver FA). E assim por diante.
Se você digerir esta peça, eu lhe direi como empurrar mais o erro para os pesos de entrada da primeira camada (input).
1. Segundo entendi, a grade deve ter dois modos de operação: 1 - aprendizagem, 2 - reconhecimento e estes modos não são compatíveis, ou seja, a grade está em um deles a qualquer momento.
2. Um vetor de sinais de entrada de comprimento n, é, por exemplo, uma matriz V[n,3] (para uma grade com três entradas) de valores RSI em n barras - certo? Então a contagem n+1 é a mesma RSI em n+1 bar. Nesse caso, treino a rede para prever o comportamento futuro do RSI, com base em seu comportamento anterior.
Se assim for, os pesos estão todos claros, até o ponto em que eu preciso tomar a derivada da função FA não suave.( Quero dizer, ainda não sei como fazer isso... Talvez apenas tomar o coeficiente angular entre dois pontos FA(RSI(i)) adjacentes. ? Bem, ok, é um problema técnico - vai ser resolvido).
1. Segundo entendi, a grade deve ter dois modos de operação: 1 - aprendizagem, 2 - reconhecimento e estes modos não são compatíveis, ou seja, a grade está em um deles a qualquer momento.
2. Um vetor de sinais de entrada de comprimento n, é, por exemplo, uma matriz V[n,3] (para uma grade com três entradas) de valores RSI em n barras - certo? Então a contagem n+1 é a mesma RSI em n+1 bar. Nesse caso, treino a rede para prever o comportamento futuro do RSI, com base em seu comportamento anterior.
Se assim for, os pesos estão todos claros, até o ponto em que eu preciso tomar a derivada da função FA não suave.( Quero dizer, ainda não sei como fazer isso... Talvez apenas tomar o coeficiente angular entre dois pontos FA(RSI(i)) adjacentes. ? Bem, ok, é um problema técnico - vai ser resolvido).
É muito bem explicado em F.Wasserman.Neurocomputing - Teoria e Prática
Muito bem explicado em F. Wasserman, Neurocomputing - Teoria e Prática
Sim, obrigado, eu encontrei um.
1. Segundo entendi, a grade deve ter dois modos de operação: 1 - aprendizagem, 2 - reconhecimento e estes modos não são compatíveis, ou seja, a grade está em um deles a qualquer momento.
2. Um vetor de sinais de entrada de comprimento n, é, por exemplo, uma matriz V[n,3] (para uma grade com três entradas) de valores RSI em n barras - certo? Então a contagem n+1 é a mesma RSI em n+1 bar. Nesse caso, treino a rede para prever o comportamento futuro do RSI, com base em seu comportamento anterior.
Se assim for, os pesos estão todos claros, até o ponto em que eu preciso tomar a derivada da função FA não suave.( Quero dizer, ainda não sei como fazer isso... Talvez apenas tomar o coeficiente angular entre dois pontos FA(RSI(i)) adjacentes. ? Bem, ok, esta é uma questão técnica - será resolvida).
1. Com a chegada de um novo dado, a grade é treinada sobre o novo vetor de treinamento e imediatamente após o treinamento produz uma previsão 1 passo à frente, e assim por diante até o infinito. Ou seja, é uma questão de treinamento adicional de NS em cada passo.
2. A malha com três entradas lê três últimas leituras de comprimento vetorial n+1+3, e é treinada por um turno sequencial de um passo de todas as n vezes.
Não há nenhum problema com o derivado. Se usarmos FA=th(x) tangente hiperbólica como FA, então não temos nenhum problema para encontrar derivada dela, dFA=1-th(x)^2 e peso de correção na entrada deste neurônio será: dw=delta*(1-th(s)^2), onde delta é erro entre a saída da grade e o valor real da amostra, s é saída da grade.
1. Com a chegada de um novo dado, a grade é treinada sobre o novo vetor de treinamento e imediatamente após o treinamento produz uma previsão 1 passo à frente, e assim por diante até o infinito. Isto é, falamos de treinamento adicional de NS em cada etapa.
2. A malha com três entradas lê três últimas leituras de comprimento vetorial n+1+3, e é treinada por um turno sequencial de um passo de todas as n vezes.
Não há nenhum problema com o derivado. Se usarmos como FA hiperbólico tangente FA=th(x), então não temos nenhum problema para encontrar derivado dele dFA=1-th(x)^2 e peso de correção na entrada deste neurônio será: dw=delta*(1-th(s)^2), onde delta é erro entre a saída da grade e o valor real da amostra, s é saída da grade.
É isso aí! Portanto, não há necessidade de reeducá-la. Oh, ótimo!
2. Uma grade com três entradas, lê as três últimas amostras de um vetor de comprimento n+1+3, e é treinada sobre ela, deslocando-se sequencialmente por um passo todas as n vezes.
Devo ter falado mal aqui. Não uma grade com três entradas, mas um neurônio com três sinapses, cada uma das quais recebe um sinal de entrada:
1synaps - th(RSI(i))
2synaps - th(RSI(i+dt))
3synaps - th(RSI(i+td*2))
1. inicializamos os pesos das sinapses com valores aleatórios (-/+1), o que faz sentido - há apenas três deles.
2. Então precisamos alimentar cada entrada com n amostras do sinal de entrada, ou seja, uma seqüência de sinais de entrada em n barras anteriores.
3. Em seguida, o neurônio de saída na barra n e compará-lo com o valor n+1 do sinal de entrada, a diferença (erro) com seu sinal deve ser adicionada a cada peso se a saída do neurônio sem FA.
Se a saída for de FA, adicionamos aos pesos o erro multiplicado pelo prudente de FA(na n-ésima barra)
4. Avance uma barra (n+1th torna-se nth) e repita os passos 2 a 4.
Perguntas:
1. n = k*w*w*w/d ?
2. Para calcular o valor do erro, sempre subtrair a contagem do teste do valor de saída da grade?
Sim!
Então passemos a épocas de aprendizado. Haverá de 10 a 1000, dependendo dos objetivos e meios, e tocaremos em mais detalhes sobre como formar um vetor de correção de pesos (na verdade, é comutativo dentro de uma época) e tem um comprimento igual ao número de sinapses w em uma amostra de comprimento n-contagens.
Em resumo, não se preocupe ainda.
Sim!
Depois passamos a épocas de aprendizado. Haverá de 10 a 1000, dependendo dos objetivos e meios, e tocaremos em mais detalhes sobre como formar um vetor de correção de pesos (na verdade, é comutativo dentro de uma época) e tem um comprimento igual ao número de sinapses w em uma amostra de comprimento n-contagens.
Em resumo, não se preocupe ainda.
Neutron, vou fazer um curto intervalo de tempo. Tenho que repensar tudo mais uma vez e colocá-lo em códigos pelo menos para um neurônio. De qualquer forma, um ou dois dias, e então continuaremos.
Muito obrigado!