Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Qual foi o período de estudo? Os preços de fechamento foram fornecidos? De qual TF? Teste de demonstração do MQ? Qual é a expectativa mat. para 1 lote?
Se não fossem os saques de seis meses, seria ótimo. Eu os tive por até 2 anos. Ao testar com o 2015 valkingforward.
PS. Como vocês conseguem trabalhar à noite? O dia é o horário mais eficiente.
O que é esse programa?
O que é esse programa?
O problema dos números.
Amostras, cada um dos n números, alimentados nas entradas X[0 ... n-1] no processo de treinamento, deve ser pré-treinado (normalizado) de forma que sejam IGUAIS entre si, mantendo-se as outras coisas iguais.
No contexto em que o valor Y na saída de um neurônio correspondente é a soma de X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], essa equivalência pode ser obtida de apenas uma maneira:
As somas dos valores |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| em todas as amostras de treinamento devem ser iguais.
Onde W[n] é considerado como "outra condição igual" igual a X[n].
Ou seja, já levando em conta a "outra condição igual", duas amostras são numericamente equivalentes se suas somas X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 forem iguais.
Por exemplo, :
Se algumas seções de preço por seus incrementos X[n][k]=fechar[n][k]-abrir[n][k], em que n é o número do valor de X e k é o número da amostra, forem usadas como um saco de amostras de treinamento,
então a soma dos valores |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| denota o comprimento do caminho da curva percorrida pelo preço em uma determinada amostra k.
Ou seja, as amostras de treinamento k devem ser pré-normalizadas entre si, no sentido físico deste exemplo, literalmente pelo comprimento do caminho da curva de preço.
E agora é possível (e necessário) realizar outra normalização para elas, no intervalo não inferior / não superior a -+1, dividindo todos os X[n][k] por max, em que max é o máximo |X[n][k]| encontrado em todos os X[n][k].
E então, no processo de aprendizado, essas amostras normalizadas X[0 ... n-1][k] são alimentadas como amostras de treinamento, cada uma com sua própria pontuação d[k], que determina a contribuição dessa amostra para o resultado agregado do aprendizado.
Novamente:
Suponho que o treinamento não deva ser feito com todas as amostras k disponíveis, mas somente com aquelas que tenham uma pontuação "decente" (uso essa palavra) d[k].
Entretanto, para criar uma amostra "digna", ainda precisamos ter todas as amostras k com suas pontuações d[k].
No entanto, esse é outro tópico...
Absolutamente descrevi a teoria: o objetivo do NS é filtrar as TSs aproximadas que mostram algo.
E eu descrevi a abordagem: procurar manualmente qualquer TS que mostre pelo menos alguns resultados e filtrá-lo com NS. Aqui está o TS original.
Inadequado para negociação, mas mostrando sinais de vida .
E aqui está o mesmo, mas filtrado pelo Python NS: LSTM-key.
As amostras, cada uma com n números, alimentadas nas entradas X[0 ... n-1] durante o treinamento, devem ser pré-treinadas (normalizadas) de modo que sejam IGUAIS entre si, mantendo-se os demais fatores iguais.
No contexto em que o valor Y na saída de um neurônio correspondente é a soma de X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], essa equivalência pode ser obtida de apenas uma maneira:
As somas dos valores |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| devem ser as mesmas para todas as amostras de treinamento.
Onde W[n] é considerado como "outra condição igual" igual a X[n].
Ou seja, já levando em conta a "outra condição igual", duas amostras são numericamente equivalentes se suas somas X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 forem iguais.
Por exemplo, :
Se algumas seções de preço por seus incrementos X[n][k]=fechar[n][k]-abrir[n][k], em que n é o número do valor de X e k é o número da amostra, forem usadas como um pacote de amostra de treinamento,
então a soma dos valores |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| significa o comprimento do caminho da curva percorrido pelo preço em uma determinada amostra k.
Ou seja, as amostras de treinamento k devem ser pré-normalizadas entre si, no sentido físico deste exemplo, literalmente pelo comprimento do caminho da curva de preço.
E agora é possível (e necessário) realizar outra normalização para elas, no intervalo não inferior / não superior a -+1, dividindo todos os X[n][k] por max, em que max é o máximo |X[n][k]| encontrado em todos os X[n][k].
E então, no processo de aprendizado, essas amostras normalizadas X[0 ... n-1][k] são alimentadas como amostras de treinamento, cada uma com sua própria pontuação d[k], que determina a contribuição dessa amostra para o resultado agregado do aprendizado.
Novamente :
Acredito que o treinamento não deva ser realizado com todas as amostras k disponíveis, mas somente com aquelas que tenham uma pontuação "decente" (uso essa palavra) d[k].
Entretanto, para criar uma amostra de amostras "dignas", ainda precisamos ter todas as amostras k com suas pontuações d[k].
No entanto, esse é outro tópico...
Você escreveu de forma interessante É aí que entra a dissonância com a teoria dos números problemáticos:
Irracional e injustificado . Afinal, prescrever "força" a um padrão é equivalente a encontrar um graal, grosso modo. Não há necessidade de NS, basta pegar os padrões com o índice de potência (numérico) mais alto, combiná-los com outro padrão semelhante e abrir uma posição, porque, de acordo com essa lógica, a probabilidade de ganhar é supostamente maior.
É por isso que eu queria me afastar dos números ou encontrar um método que, de alguma forma objetiva (o mais objetivamente possível), atribuísse um determinado poder a um padrão que, em algum contexto (mistura com outros padrões), apresentasse uma alta probabilidade de dar certo. Então, há uma sensação de pré-processamento.